Много всего и бесплатно! 🤑
Сэкономил, считай, заработал? Тогда я Вам сегодня даю возможность неплохо заработать, используя бесплатные сервисы для разных задач.
Изначально это пост должен был быть обзором на бесплатный апскейлер изображений, но, наткнувшись на один сайт, я понял, что нашел своеобразный грааль.
Сегодня на повестке следующие бесплатные нейросети в одном сервисе Tost AI:
🔤 Image to Image - Upscaler v2.0
🔤 Text to Image - Kolors
🔤 Text to Video - IPAdapter AnimateDiff
🔤 Text to Audio - Stable Audio v1.0
🔤 Image to 3D - Instant Mesh
Но начнем все таки с обзора изначальной функции - я бы хотел сказать, что дизайн минималистичный, но, помимо фотографии, которую вы хотите улучшить и кнопки для начала, у вас есть возможность добавить промпт; негативный промпт; задать значения inspire seed (главное не переводите в переводчике) - уровень фантазии генерации; еще 10 вариантов вдохновения и 50 других разных параметров.
Я даже побоялся в них влазить. Но очень интересно разобраться как-нибудь.
Пример улучшения изображений можно посмотреть на на двух фотографиях это моя личная проба. Потребовалось около трех минут.
Только есть один нюанс - сервис принимает на вход изображение только по ссылке. Но хорошо, что сразу же предлагает вариант быстрого размещения такой ссылки. Вам нужно просто зайти на этот сайт, загрузить фото, скопировать ссылку и вставить ее в апскейлер.
Насколько хорошо он работает, оставляю решить вам.
Ну и обзор всех приложений тянет на очень большую статью, поэтому буду их обозревать постепенно. До завтра!
Сэкономил, считай, заработал? Тогда я Вам сегодня даю возможность неплохо заработать, используя бесплатные сервисы для разных задач.
Изначально это пост должен был быть обзором на бесплатный апскейлер изображений, но, наткнувшись на один сайт, я понял, что нашел своеобразный грааль.
Сегодня на повестке следующие бесплатные нейросети в одном сервисе Tost AI:
Но начнем все таки с обзора изначальной функции - я бы хотел сказать, что дизайн минималистичный, но, помимо фотографии, которую вы хотите улучшить и кнопки для начала, у вас есть возможность добавить промпт; негативный промпт; задать значения inspire seed (главное не переводите в переводчике) - уровень фантазии генерации; еще 10 вариантов вдохновения и 50 других разных параметров.
Я даже побоялся в них влазить. Но очень интересно разобраться как-нибудь.
Пример улучшения изображений можно посмотреть на на двух фотографиях это моя личная проба. Потребовалось около трех минут.
Только есть один нюанс - сервис принимает на вход изображение только по ссылке. Но хорошо, что сразу же предлагает вариант быстрого размещения такой ссылки. Вам нужно просто зайти на этот сайт, загрузить фото, скопировать ссылку и вставить ее в апскейлер.
Насколько хорошо он работает, оставляю решить вам.
Ну и обзор всех приложений тянет на очень большую статью, поэтому буду их обозревать постепенно. До завтра!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3
RAG: Что это за зверь и зачем он нужен?
Сегодня по-быстрому разберём, что такое RAG и почему это круто.
RAG — это Retrieval-Augmented Generation. Если по-простому, это такая фишка в мире AI, которая делает наши ответы умнее и точнее.
Как это работает?
1. Retrieval (Извлечение инфы): Сначала модель ищет нужную инфу. Например, ты спрашиваешь, сколько лет Земле. Модель быстренько лазит по базе данных (или интернету) и находит свежие данные.
2. Generation (Генерация ответа): Потом модель берёт эту инфу и строит нормальный, связный ответ. В итоге ты получаешь не просто умозаключение модели, а проверенные данные.
Зачем это нужно?
Прикол в том, что модели вроде GPT-4, хоть и умные, но их знания ограничены моментом, когда их обучали. А RAG позволяет таким моделям быть всегда на волне актуальности. Хочешь узнать последние новости или свежие данные по какой-то теме — RAG тебе в помощь.
Пример в жизни
Представь, что ты спрашиваешь у модели: "Какие последние новости про космос?". Без RAG модель может ответить что-то общими словами, основываясь на старых данных. А с RAG она залезет в свежие статьи и даст тебе самую актуальную инфу.
RAG — это как суперсила для моделей AI. Она позволяет им быть не просто умными, а ещё и актуальными. Так что, если хочешь получать точные и свежие ответы, RAG — твой лучший друг.
А если хотите максимально погрузиться в мир LLM, Fine-tuned моделей и RAG, советую пройти бесплатный курс от Meta, Anthropic, Mistral и Fireworks-ai - https://parlance-labs.com/education/
Поделись этой инфой с друзьями, пусть тоже шарят за современные технологии! Всем мир! ✌️
Сегодня по-быстрому разберём, что такое RAG и почему это круто.
RAG — это Retrieval-Augmented Generation. Если по-простому, это такая фишка в мире AI, которая делает наши ответы умнее и точнее.
Как это работает?
1. Retrieval (Извлечение инфы): Сначала модель ищет нужную инфу. Например, ты спрашиваешь, сколько лет Земле. Модель быстренько лазит по базе данных (или интернету) и находит свежие данные.
2. Generation (Генерация ответа): Потом модель берёт эту инфу и строит нормальный, связный ответ. В итоге ты получаешь не просто умозаключение модели, а проверенные данные.
Зачем это нужно?
Прикол в том, что модели вроде GPT-4, хоть и умные, но их знания ограничены моментом, когда их обучали. А RAG позволяет таким моделям быть всегда на волне актуальности. Хочешь узнать последние новости или свежие данные по какой-то теме — RAG тебе в помощь.
Пример в жизни
Представь, что ты спрашиваешь у модели: "Какие последние новости про космос?". Без RAG модель может ответить что-то общими словами, основываясь на старых данных. А с RAG она залезет в свежие статьи и даст тебе самую актуальную инфу.
RAG — это как суперсила для моделей AI. Она позволяет им быть не просто умными, а ещё и актуальными. Так что, если хочешь получать точные и свежие ответы, RAG — твой лучший друг.
А если хотите максимально погрузиться в мир LLM, Fine-tuned моделей и RAG, советую пройти бесплатный курс от Meta, Anthropic, Mistral и Fireworks-ai - https://parlance-labs.com/education/
Поделись этой инфой с друзьями, пусть тоже шарят за современные технологии! Всем мир! ✌️
👍5❤3
Лечить зубы станет не так страшно... Или нет? 😰
Впервые в истории стоматологии автономный робот, управляемый ИИ, провёл целую процедуру на человеческом пациенте, причём сделал это примерно в восемь раз быстрее, чем обычный стоматолог.
Этот аппарат, разработанный бостонской компанией Perceptive, использует ручной 3D-сканер, который создаёт детализированную 3D-модель рта, включая зубы, десны и даже нервы под поверхностью зуба, используя оптическую когерентную томографию (ОКТ). Вот пример:
Быстрые оральные сканы с использованием ОКТ
Это исключает вредное рентгеновское излучение из процесса, так как ОКТ использует только световые лучи для создания объемных моделей, которые выходят с высоким разрешением, а кариес автоматически обнаруживается с точностью около 90%.
На этом этапе (человеческий) стоматолог и пациент могут обсудить, что нужно делать, но как только решения приняты, в дело вступает роботизированный стоматолог. Он планирует операцию, а затем просто берет и выполняет её.
Первая специализация машины: подготовка зуба для установки коронки. По словам Perceptive, это обычно двухчасовая процедура, которую стоматологи обычно разбивают на два визита. Робо-дантист справляется с этим примерно за 15 минут. Вот видео в ускоренном режиме с бурением, выглядящее как работа ЧПУ-станка:
Удивительно, но компания утверждает, что машина может работать безопасно "даже в самых подвижных условиях", и что тестовые испытания на движущихся людях были успешными. Тут реально нашлись отважные подопытные кролики.
"Мы рады успешно завершить первую в мире полностью автоматизированную стоматологическую процедуру," говорит доктор Крис Цириелло, генеральный директор и основатель Perceptive – явно мастер сухих и скучных пресс-релизов. "Этот медицинский прорыв повышает точность и эффективность стоматологических процедур и демократизирует доступ к лучшей стоматологической помощи, улучшая опыт пациента и клинические результаты. Мы с нетерпением ждем возможности усовершенствовать нашу систему и продвигать масштабируемые, полностью автоматизированные стоматологические решения для пациентов."
"Роботизированная система Perceptive на базе ИИ преобразит стоматологию," добавляет Карим Заклама, DDS, общий стоматолог и член клинического консультативного совета Perceptive. "Опыт пациента станет лучше благодаря упрощению процедур и повышению комфорта пациента. Продвинутые возможности визуализации, особенно интраоральный сканер, предоставляют непревзойдённые детали, что позволит нам диагностировать проблемы раньше с большей точностью и эффективнее взаимодействовать с пациентами. Эта эффективность позволяет нам больше сосредоточиться на персонализированном уходе за пациентами и сокращает время на кресле, что позволяет нам эффективно лечить больше пациентов."
Роботизированный стоматолог, похоже, занимает гораздо меньше места в вашем рту, чем человек
Хотя, конечно, страшновато представить, как сидишь в кресле и позволяешь роботу сверлить тебе зубы, не намного ли страшнее, чем когда это делает человек?
Высокоточная роботизированная хирургия под контролем человека уже делает гигантские шаги вперёд, устраняя необходимость в невероятно твёрдой руке – и, как мы видим в мире гуманоидов, как только вы начинаете телеперировать робота, вы, по сути, учите его выполнять ту же работу автономно. Так что, скорее всего, придётся привыкать к этой идее в ближайшие годы.
И тут явно есть преимущества. Если вы сидите в кресле робо-дантиста всего четверть часа вместо двух часовых марафонов, это огромное улучшение. Похоже, не нужно так широко открывать рот, что может сделать эти 15 минут менее утомительными. И хотя система определённо будет стоить денег, она экономит столько времени, что счета за стоматологию могут значительно снизиться.
Робот пока не одобрен FDA, и Perceptive не указала сроки запуска, так что, возможно, пройдёт несколько лет, прежде чем общественность получит доступ к такому лечению.
Впервые в истории стоматологии автономный робот, управляемый ИИ, провёл целую процедуру на человеческом пациенте, причём сделал это примерно в восемь раз быстрее, чем обычный стоматолог.
Этот аппарат, разработанный бостонской компанией Perceptive, использует ручной 3D-сканер, который создаёт детализированную 3D-модель рта, включая зубы, десны и даже нервы под поверхностью зуба, используя оптическую когерентную томографию (ОКТ). Вот пример:
Быстрые оральные сканы с использованием ОКТ
Это исключает вредное рентгеновское излучение из процесса, так как ОКТ использует только световые лучи для создания объемных моделей, которые выходят с высоким разрешением, а кариес автоматически обнаруживается с точностью около 90%.
На этом этапе (человеческий) стоматолог и пациент могут обсудить, что нужно делать, но как только решения приняты, в дело вступает роботизированный стоматолог. Он планирует операцию, а затем просто берет и выполняет её.
Первая специализация машины: подготовка зуба для установки коронки. По словам Perceptive, это обычно двухчасовая процедура, которую стоматологи обычно разбивают на два визита. Робо-дантист справляется с этим примерно за 15 минут. Вот видео в ускоренном режиме с бурением, выглядящее как работа ЧПУ-станка:
Удивительно, но компания утверждает, что машина может работать безопасно "даже в самых подвижных условиях", и что тестовые испытания на движущихся людях были успешными. Тут реально нашлись отважные подопытные кролики.
"Мы рады успешно завершить первую в мире полностью автоматизированную стоматологическую процедуру," говорит доктор Крис Цириелло, генеральный директор и основатель Perceptive – явно мастер сухих и скучных пресс-релизов. "Этот медицинский прорыв повышает точность и эффективность стоматологических процедур и демократизирует доступ к лучшей стоматологической помощи, улучшая опыт пациента и клинические результаты. Мы с нетерпением ждем возможности усовершенствовать нашу систему и продвигать масштабируемые, полностью автоматизированные стоматологические решения для пациентов."
"Роботизированная система Perceptive на базе ИИ преобразит стоматологию," добавляет Карим Заклама, DDS, общий стоматолог и член клинического консультативного совета Perceptive. "Опыт пациента станет лучше благодаря упрощению процедур и повышению комфорта пациента. Продвинутые возможности визуализации, особенно интраоральный сканер, предоставляют непревзойдённые детали, что позволит нам диагностировать проблемы раньше с большей точностью и эффективнее взаимодействовать с пациентами. Эта эффективность позволяет нам больше сосредоточиться на персонализированном уходе за пациентами и сокращает время на кресле, что позволяет нам эффективно лечить больше пациентов."
Роботизированный стоматолог, похоже, занимает гораздо меньше места в вашем рту, чем человек
Хотя, конечно, страшновато представить, как сидишь в кресле и позволяешь роботу сверлить тебе зубы, не намного ли страшнее, чем когда это делает человек?
Высокоточная роботизированная хирургия под контролем человека уже делает гигантские шаги вперёд, устраняя необходимость в невероятно твёрдой руке – и, как мы видим в мире гуманоидов, как только вы начинаете телеперировать робота, вы, по сути, учите его выполнять ту же работу автономно. Так что, скорее всего, придётся привыкать к этой идее в ближайшие годы.
И тут явно есть преимущества. Если вы сидите в кресле робо-дантиста всего четверть часа вместо двух часовых марафонов, это огромное улучшение. Похоже, не нужно так широко открывать рот, что может сделать эти 15 минут менее утомительными. И хотя система определённо будет стоить денег, она экономит столько времени, что счета за стоматологию могут значительно снизиться.
Робот пока не одобрен FDA, и Perceptive не указала сроки запуска, так что, возможно, пройдёт несколько лет, прежде чем общественность получит доступ к такому лечению.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤1
Black Forest Labs: Новая эра генерации изображений
Позавчера, 1 августа 2024 года, стартап Black Forest Labs объявил о своём создании и сразу выкатил три крутых модели для генерации изображений по текстовому промпту — FLUX.1, позиционируя их лучшими на рынке.
Кто за этим стоит?
- Робин Ромбах (экс-Stability AI, индекс Хирша 22)
- Андреас Блаттманн (соавтор Latent Diffusion, индекс Хирша 18)
- Патрик Эссер (главный исследователь в Runway, индекс Хирша 18)
Что они сделали?
FLUX.1 — это семейство моделей с гибридной архитектурой и 12 млрд параметров. В основе — техники flow matching, positional embeddings и parallel attention layers.
Модели FLUX.1:
1. [pro] — Максимальная мощность, высочайшее качество, доступ через платный API. Цена на Replicate — $0,055 за изображение, на fal.ai — $0,05 за мегапиксель.
2. [dev] — Оптимизированная версия с открытыми весами. Для FP16 нужно 24 ГиБ видеопамяти, для FP8 — 12 ГиБ. Доступна на Hugging Face, fal.ai и Replicate.
3. [schnell] — Быстрая версия, лицензия Apache 2.0.
Цены: На Replicate одна картинка от [dev] стоит $0,030, на fal.ai — $0,025 за мегапиксель.
Инвестиции и планы
Black Forest Labs уже получил $31 млн инвестиций от Andreessen Horowitz и других крупных бизнес-ангелов.
Так что, если хочешь попробовать что-то новое и мощное в мире генерации изображений, не пропусти FLUX.1!
Подробнее можно прочитать здесь.
Позавчера, 1 августа 2024 года, стартап Black Forest Labs объявил о своём создании и сразу выкатил три крутых модели для генерации изображений по текстовому промпту — FLUX.1, позиционируя их лучшими на рынке.
Кто за этим стоит?
- Робин Ромбах (экс-Stability AI, индекс Хирша 22)
- Андреас Блаттманн (соавтор Latent Diffusion, индекс Хирша 18)
- Патрик Эссер (главный исследователь в Runway, индекс Хирша 18)
Что они сделали?
FLUX.1 — это семейство моделей с гибридной архитектурой и 12 млрд параметров. В основе — техники flow matching, positional embeddings и parallel attention layers.
Модели FLUX.1:
1. [pro] — Максимальная мощность, высочайшее качество, доступ через платный API. Цена на Replicate — $0,055 за изображение, на fal.ai — $0,05 за мегапиксель.
2. [dev] — Оптимизированная версия с открытыми весами. Для FP16 нужно 24 ГиБ видеопамяти, для FP8 — 12 ГиБ. Доступна на Hugging Face, fal.ai и Replicate.
3. [schnell] — Быстрая версия, лицензия Apache 2.0.
Цены: На Replicate одна картинка от [dev] стоит $0,030, на fal.ai — $0,025 за мегапиксель.
Инвестиции и планы
Black Forest Labs уже получил $31 млн инвестиций от Andreessen Horowitz и других крупных бизнес-ангелов.
Так что, если хочешь попробовать что-то новое и мощное в мире генерации изображений, не пропусти FLUX.1!
Подробнее можно прочитать здесь.
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Как ИИ помогает бороться с пробками и выбросами 🤩
Привет, сегодня расскажу про крутую инициативу от Google Research — Project Green Light. Этот проект направлен на снижение выбросов и оптимизацию работы светофоров с помощью ИИ.
В чём суть?
- Проблема: На перекрестках загрязнение воздуха может быть в 29 раз выше, чем на дорогах. Около половины выбросов происходит из-за разгона транспорта после остановки.
- Решение: Инженеры Google использовали данные из Google Maps для создания модели ИИ, которая оптимизирует работу светофоров, сокращая время ожидания и улучшая координацию между перекрёстками.
Как это работает?
Команда Green Light анализирует данные о движении и определяет точки для улучшения, например, сокращение времени красного сигнала в непиковые часы или согласование движения между перекрёстками. Городские инженеры могут внедрять эти рекомендации всего за пять минут, используя существующую инфраструктуру.
Результаты
- Тестирование: С 2021 года проект протестирован в более чем десятке городов, включая Рио-де-Жанейро, Сиэтл, Бангалор и Бостон.
- Экономия: Green Light работает на более чем 70 перекрёстках, помогая экономить топливо и снижать выбросы для 30 млн поездок ежемесячно.
- Потенциал: Сокращение остановок до 30% и снижение выбросов на перекрестках до 10%.
Проект Green Light — это отличная инициатива, показывающая, как ИИ может реально помочь в борьбе с пробками и загрязнением воздуха. Надеемся, что таких проектов будет больше!
Поделитесь этой инфой с друзьями и коллегами, пусть тоже будут в курсе новинок!
Привет, сегодня расскажу про крутую инициативу от Google Research — Project Green Light. Этот проект направлен на снижение выбросов и оптимизацию работы светофоров с помощью ИИ.
В чём суть?
- Проблема: На перекрестках загрязнение воздуха может быть в 29 раз выше, чем на дорогах. Около половины выбросов происходит из-за разгона транспорта после остановки.
- Решение: Инженеры Google использовали данные из Google Maps для создания модели ИИ, которая оптимизирует работу светофоров, сокращая время ожидания и улучшая координацию между перекрёстками.
Как это работает?
Команда Green Light анализирует данные о движении и определяет точки для улучшения, например, сокращение времени красного сигнала в непиковые часы или согласование движения между перекрёстками. Городские инженеры могут внедрять эти рекомендации всего за пять минут, используя существующую инфраструктуру.
Результаты
- Тестирование: С 2021 года проект протестирован в более чем десятке городов, включая Рио-де-Жанейро, Сиэтл, Бангалор и Бостон.
- Экономия: Green Light работает на более чем 70 перекрёстках, помогая экономить топливо и снижать выбросы для 30 млн поездок ежемесячно.
- Потенциал: Сокращение остановок до 30% и снижение выбросов на перекрестках до 10%.
Проект Green Light — это отличная инициатива, показывающая, как ИИ может реально помочь в борьбе с пробками и загрязнением воздуха. Надеемся, что таких проектов будет больше!
Поделитесь этой инфой с друзьями и коллегами, пусть тоже будут в курсе новинок!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥1
Илон Маск в подкасте с Лексом Фридманом сообщил, что второй пациент успешно получил нейроимплант от Neuralink. Участник эксперимента, как и первый доброволец Ноланд Арбо, получил травму спинного мозга. В мозг нового пациента интегрировали 400 электродов, и, по словам Маска, всё прошло на ура.
Neuralink планирует установить ещё восемь имплантов в этом году. Несмотря на некоторые аппаратные проблемы с первым пациентом, команда не останавливается и продолжает улучшать технологии.
Маск обещает, что нейроимпланты дадут парализованным людям возможность управлять компьютерами силой мысли. Но это не всё! В будущем BCI от Neuralink может подарить людям тепловое зрение, лечить болезни, устранять неврологические расстройства и даже слепоту.
Маск уверен, что традиционное использование компьютеров покажется "мучительно медленным" после внедрения имплантов. В перспективе — объединение с ИИ для расширения возможностей мозга.
Буду держать вас в курсе всех новостей!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👌1
Что такое хакатон?
Хакатон — это ИТ-тусовка, где команды программистов, дизайнеров и менеджеров за короткий срок решают техничные задачи или предлагают новые продуктовые идеи. Цель — создать хотя бы базовый прототип или показать решение проблемы. Название "хакатон" происходит от слов "hack" (креативное решение задачи) и "марафон" (непрерывная работа), что идеально описывает атмосферу этих мероприятий, которые обычно длятся от 24 до 72 часов.
На хакатонах участники могут либо работать соло, используя свои идеи и навыки, либо объединяться в команды. Кульминация — презентация проектов перед жюри, которое оценивает инновационность, оригинальность и потенциал каждого решения.
Ближайшие хакатоны в августе и сентябре 2024
Вот список ближайших хакатонов в России.
1. ВШЭ ПСБ.Хак
Участвуй в хакатоне по искусственному интеллекту под руководством экспертов НИУ ВШЭ и ПСБ. Вместе разработаем новый финансовый продукт для студентов.
- Когда: 20-22 сентября (регистрация до 16 сентября).
- Где: онлайн/оффлайн в Москве
- Подробнее здесь.
2. Kazan Digital Transformation 2024
Прокачай цифровое развитие Казани и найди инновационные решения для городской среды. Выиграй денежный приз и получи стажировку или оффер в топовые компании.
- Когда:
- 12-13 августа (Онлайн-этап): разработка концепций.
- 14-23 августа: самостоятельная работа над проектом.
- 24-25 августа (Оффлайн-этап): работа над MVP в Казани. Финал и награждение победителей.
- Подробнее здесь.
3. Интенсив RTL.Hack
Хакатон (с фуршетом!) по теме “Автоматизированная сегментация поставщиков для их эффективного привлечения в электронные торги”. Прокачаем инструментарий сегментации поставщиков.
- Когда: 7 сентября 2024 года
- Где: оффлайн в Санкт-Петербурге
- Подробнее здесь.
4. Хакатон Всероссийского форума молодых ученых «Полюс»
Проходит в рамках трека «Инноваторы» и включает направления: искусственный интеллект, беспилотники, робототехника. Лучшие команды получат стажировки и ценные призы.
- Когда: Онлайн – 16 по 29 сентября. Офлайн – 30 сентября по 3 октября.
- Где: онлайн и Архангельск.
- Подробнее здесь.
5. Окружной хакатон в Омске. Цифровой Прорыв: сезон Искусственный Интеллект
Командное соревнование, где решаются кейсы от государства и бизнеса по ИИ и другим IT-тематикам. Участвовать можно онлайн и офлайн.
- Когда: 6-8 сентября (регистрация до 29 августа)
- Где: онлайн/оффлайн в Омске
- Подробнее здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Давайте сыграем с Вами в игру 🤡
Я уже устраиваил такую викторину месяца 4 назад, но за это время все модели обновились и теперь интересно проверить, как хорошо вы определяете, где сгенерированная фотография, а где нет.
Скажу сразу, что я использовал нейронки, которые доступны бесплатно: krea.ai, LeonardoAI, Шедеврум и Ideogram и одна картинка реальная.
Я сейчас сделаю опрос, в котором вы попытаетесь угадать, какая фотография реальная. А в комментариях можете предположить, в каких программах какое изображение сгенерировано.
Я уже устраиваил такую викторину месяца 4 назад, но за это время все модели обновились и теперь интересно проверить, как хорошо вы определяете, где сгенерированная фотография, а где нет.
Скажу сразу, что я использовал нейронки, которые доступны бесплатно: krea.ai, LeonardoAI, Шедеврум и Ideogram и одна картинка реальная.
Я сейчас сделаю опрос, в котором вы попытаетесь угадать, какая фотография реальная. А в комментариях можете предположить, в каких программах какое изображение сгенерировано.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
ИИ всех переиграл 😏
Итак, по результатам, из всего количества ответов, правильно распознали настоящее фото только 34%.
Это что получается, скоро мы вообще не сможем отличить где ИИ-фото, а где нет?
P.S. скоро опубликую обзор на нейронку.
Итак, по результатам, из всего количества ответов, правильно распознали настоящее фото только 34%.
Это что получается, скоро мы вообще не сможем отличить где ИИ-фото, а где нет?
P.S. скоро опубликую обзор на нейронку.
Please open Telegram to view this post
VIEW IN TELEGRAM
Вигл-вигли. Нейронка для видосиков с танцами 🕺
Снова у нас на обзоре стилизация видео с людьми и танцами. Называется, как можно понять, ViggleAI. Есть приложения для Android, IOS и веб-версия.
Дают 10 бесплатных генераций в день, что очень щедро, но на видео будет вотермарка. А платная версия стоит 10$.
Как вообще работает и что делает?
По сути, она просто накладывает на исходное видео, персонажа, которого вы загружаете. Так сказать, натягивают сову на глобус.
В том примере, который я видел, сервис делает это достаточно неплохо. Но я люблю устраивать стресс-тесты для них и давать тяжелые задачи.
Этот раз не стал исключением. Я взял видео с очень активным танцем и сменой ракурсов и росомаху, как замену персонажа.
По алгоритму действий все то же самое, как я описывал выше. Но еще есть функция работы с задником. Как я понимаю, можно убрать фон, заменив его зеленкой и потом добавить что хотите.
Результат с таким сложным видео , естественно, получился не очень. Все смазано и сильно заметно, что это ии-шная замена, но я залью это видео в тик-ток и посмотрю, как оно будет продвигаться.
А вы можете устроить свои эксперименты. Если хотите добиться хорошего результата, то ловите пару рекомендаций:
- подбирайте исходники с хорошим качеством и в полный рост;
- старайтесь учитывать комплекцию персонажей так, чтобы они были примерно одного размера;
- и выбирайте видео с не самыми сложными движениями.
Успехов Вам и делитесь своими примерами в комментариях.
Снова у нас на обзоре стилизация видео с людьми и танцами. Называется, как можно понять, ViggleAI. Есть приложения для Android, IOS и веб-версия.
Дают 10 бесплатных генераций в день, что очень щедро, но на видео будет вотермарка. А платная версия стоит 10$.
Как вообще работает и что делает?
По сути, она просто накладывает на исходное видео, персонажа, которого вы загружаете. Так сказать, натягивают сову на глобус.
В том примере, который я видел, сервис делает это достаточно неплохо. Но я люблю устраивать стресс-тесты для них и давать тяжелые задачи.
Этот раз не стал исключением. Я взял видео с очень активным танцем и сменой ракурсов и росомаху, как замену персонажа.
По алгоритму действий все то же самое, как я описывал выше. Но еще есть функция работы с задником. Как я понимаю, можно убрать фон, заменив его зеленкой и потом добавить что хотите.
Результат с таким сложным видео , естественно, получился не очень. Все смазано и сильно заметно, что это ии-шная замена, но я залью это видео в тик-ток и посмотрю, как оно будет продвигаться.
А вы можете устроить свои эксперименты. Если хотите добиться хорошего результата, то ловите пару рекомендаций:
- подбирайте исходники с хорошим качеством и в полный рост;
- старайтесь учитывать комплекцию персонажей так, чтобы они были примерно одного размера;
- и выбирайте видео с не самыми сложными движениями.
Успехов Вам и делитесь своими примерами в комментариях.
❤3👍1🥱1
Три гения из Копенгагенского университета разработали приложение на базе ИИ, которое способно определять фазу рентгеновских лучей, дифрагированных кристаллами. Это открытие прокладывает путь к точному предсказанию структуры небольших молекул!
Как это работает
Традиционно, чтобы понять структуру молекул, их превращают в кристаллы и облучают рентгеном. Но загвоздка в том, что фазу лучей определить сложно, и часто приходится угадывать, что ведет к неточным данным.
Теперь, благодаря приложению PhAI, эта проблема решена! Исследователи создали миллионы искусственных моделей молекул и обучили ИИ распознавать размытые паттерны. Результат? Точная структура 2400 молекул!
Что дальше?
Команда планирует расширить возможности PhAI и интегрировать его с моделями типа ChatGPT для автоматизации анализа.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Программисты с жиру бесятся? 😡
🔥 Результаты ежегодного опроса Stack Overflow: что бесит разработчиков?
Недавний опрос Stack Overflow зацепил сразу несколько горячих тем: от искусственного интеллекта до рекордного недовольства на работе. Разработчики по всему миру явно не в восторге от своих условий труда.
💥 Неудовлетворенность работой: 80% профи не счастливы на работе. Каждый третий откровенно ненавидит её, а половина выживает как может. Высокие зарплаты и удаленка не спасают.
💸 Деньги и ожидания: ЗП начинают падать. Например, PHP-разработчики получают в среднем $49,000 в год. Только те, кто совмещает кодинг с предпринимательством, реально выигрывают.
Технический долг: Это раздражает больше всего. Костыли и несовершенные системы деморализуют и мешают работать.
⏰ Культура суеты: Безумные дедлайны и завышенные ожидания ведут к выгоранию. Частая смена работы – временное спасение, но стресс возвращается.
Бюрократия: В крупных компаниях – бесконечные совещания и оторванные от реальности требования. Вместо кода – бумажная работа, и это бесит.
Здоровье и сокращения: Массовые увольнения породили неуверенность. А сидячая работа вредит здоровью. Движение – наше всё!
⚡️ Код – не проблема: Несмотря на всё, 68% пишут код в свободное время для фана, почти 40% – ради роста и обучения. Проблема не в коде, а в условиях!
Разработчики, держитесь!👊
Недавний опрос Stack Overflow зацепил сразу несколько горячих тем: от искусственного интеллекта до рекордного недовольства на работе. Разработчики по всему миру явно не в восторге от своих условий труда.
Технический долг: Это раздражает больше всего. Костыли и несовершенные системы деморализуют и мешают работать.
Бюрократия: В крупных компаниях – бесконечные совещания и оторванные от реальности требования. Вместо кода – бумажная работа, и это бесит.
Здоровье и сокращения: Массовые увольнения породили неуверенность. А сидячая работа вредит здоровью. Движение – наше всё!
Разработчики, держитесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
Тонкое искусство настройки LLM 👌
Я тут понял, что уже успел Вам рассказать, что такое, RAG - вот пост, если что, но так и не рассказал про его предвестника - Fine-tuned model, иди же, говоря по-русски, тонкую настройку LLM.
Ниже я исправляюсь, но перед этим дам вам понимание в чем разница между RAG и Fine-tuned. В первом случае LLM будет использовать для ответов информацию только из того источника, который вы ей предоставите, а во втором использовать собственные данные и те, которые вы ей дополнительно дадите. Итак:
Как работает Fine-tuning❓
Fine-tuning — это процесс дообучения модели на специфических данных. После общего обучения модель дорабатывают, чтобы она стала экспертом в конкретной области.
Процесс:
1. Предварительное обучение: Модель обучается на разнородных данных, чтобы понять структуру и нюансы языка.
2. Тонкая настройка (Fine-tuning): Модель дообучают на узконаправленных данных, например, медицинских или юридических текстах, чтобы она могла решать специфические задачи.
🕹 Зачем это нужно?
Fine-tuning позволяет модели стать более специализированной и точной:
- Специализация: Модель адаптируется под конкретные задачи, будь то медицина, финансы или юриспруденция. Это как изучение узкой специализации после общего курса.
- Точность: Повышается качество выводов и снижается количество ошибок.
- Эффективность: Модель выполняет задачи быстрее и надёжнее.
💻 Примеры использования
- Медицина: Fine-tuned модели помогают врачам анализировать симптомы, предлагать диагнозы и даже разрабатывать планы лечения.
- Юриспруденция: Автоматизируют анализ контрактов, находят ключевые пункты и даже прогнозируют исходы судебных дел.
- Бизнес: Улучшают взаимодействие с клиентами через чат-боты, которые понимают и решают запросы быстрее.
🤖 Будущее с Fine-tuned LLM
Fine-tuned LLM — это мощный инструмент, который позволяет компаниям и специалистам добиваться лучших результатов. Это как иметь универсального помощника, который может адаптироваться к любым задачам. В мире, где точность и скорость решают всё, такие модели становятся незаменимыми.
Так что, если хотите сделать свои AI-решения умнее и эффективнее, Fine-tuning — ваш лучший друг!😀
Когда-нибудь мы дойдем до того, что я буду не просто описывать общими словами как это работает и для чего применяется, а давать инструкции, но пока что стараюсь разобраться сам.
Я тут понял, что уже успел Вам рассказать, что такое, RAG - вот пост, если что, но так и не рассказал про его предвестника - Fine-tuned model, иди же, говоря по-русски, тонкую настройку LLM.
Ниже я исправляюсь, но перед этим дам вам понимание в чем разница между RAG и Fine-tuned. В первом случае LLM будет использовать для ответов информацию только из того источника, который вы ей предоставите, а во втором использовать собственные данные и те, которые вы ей дополнительно дадите. Итак:
Как работает Fine-tuning
Fine-tuning — это процесс дообучения модели на специфических данных. После общего обучения модель дорабатывают, чтобы она стала экспертом в конкретной области.
Процесс:
1. Предварительное обучение: Модель обучается на разнородных данных, чтобы понять структуру и нюансы языка.
2. Тонкая настройка (Fine-tuning): Модель дообучают на узконаправленных данных, например, медицинских или юридических текстах, чтобы она могла решать специфические задачи.
Fine-tuning позволяет модели стать более специализированной и точной:
- Специализация: Модель адаптируется под конкретные задачи, будь то медицина, финансы или юриспруденция. Это как изучение узкой специализации после общего курса.
- Точность: Повышается качество выводов и снижается количество ошибок.
- Эффективность: Модель выполняет задачи быстрее и надёжнее.
- Медицина: Fine-tuned модели помогают врачам анализировать симптомы, предлагать диагнозы и даже разрабатывать планы лечения.
- Юриспруденция: Автоматизируют анализ контрактов, находят ключевые пункты и даже прогнозируют исходы судебных дел.
- Бизнес: Улучшают взаимодействие с клиентами через чат-боты, которые понимают и решают запросы быстрее.
Fine-tuned LLM — это мощный инструмент, который позволяет компаниям и специалистам добиваться лучших результатов. Это как иметь универсального помощника, который может адаптироваться к любым задачам. В мире, где точность и скорость решают всё, такие модели становятся незаменимыми.
Так что, если хотите сделать свои AI-решения умнее и эффективнее, Fine-tuning — ваш лучший друг!
Когда-нибудь мы дойдем до того, что я буду не просто описывать общими словами как это работает и для чего применяется, а давать инструкции, но пока что стараюсь разобраться сам.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Братишка, я тебе покушать принёс 🌈
Точнее, большое количество ссылок с промптами и инструкциями по применению различных нейросетей, от LLM до генераторов изображений.
Пользуйтесь:
🔤 Pompthero.com/
Огромная библиотека промтов для генерации изображений с удобной навигацией.
🔤 Docs.anthropic.com/en/prompt-library/library
Документация с промтами в первую очередь для чат-бота Claude.
🔤 Promptlibrary.org/
Промты и примеры картинок, созданных нейросетью Midjourney.
🔤 Snackprompt.com/
Большая библиотека промтов для разных нейросетей, есть платные предложения.
🔤 Writesonic.com/blog/chatgpt-prompts
Структурированная статья с примерами промтов для ChatGPT.
🔤 Ailib.ru/promts/
Очень много промтов и примерно столько же рекламы, есть поиск и рубрики.
🔤 Prompthackers.co/
Коллекция, которая, помимо прочего, содержит довольно оригинальные промты.
🔤 Awesomegptprompts.com/categories
Небольшой каталог промтов для ChatGPT и других текстовых нейросетей.
🔤 Learnprompting.org/ru/docs/introduction
По сути гайд, но со множеством примеров универсальных промтов.
🔤 Prompts.chat
Репозиторий, посвящённый примерам использования
Neurobot.ru/prompts
Готовые промты для генерации изображений с помощью разных нейросетей.
🔤 Academy.bothub.chat/biblioteka-promtov
Большая коллекция небанальных промтов, завёрнутая в курс.
🔤 Developers.sber.ru/help/gigachat/catalog
Каталог промтов в первую очередь для GigaChat, но в целом применимых везде.
🔤 Ai.mitup.ru/prompts
Коллекция универсальных промтов для создания контента и автоматизации рутины.
🔤 Gptchat4.ru/prompts
Библиотека промтов для ChatGPT, которые можно протестировать прямо на сайте.
🔤 Prompt-chatgpt.ru/biblioteka-promptov/
База промтов для чат-ботов с рубрикатором, в котором можно выбрать самые разные задачи.
🔤 Prompt1.ru/
Библиотека промтов для генерации изображений и текста с обширным фильтром.
Точнее, большое количество ссылок с промптами и инструкциями по применению различных нейросетей, от LLM до генераторов изображений.
Пользуйтесь:
Огромная библиотека промтов для генерации изображений с удобной навигацией.
Документация с промтами в первую очередь для чат-бота Claude.
Промты и примеры картинок, созданных нейросетью Midjourney.
Большая библиотека промтов для разных нейросетей, есть платные предложения.
Структурированная статья с примерами промтов для ChatGPT.
Очень много промтов и примерно столько же рекламы, есть поиск и рубрики.
Коллекция, которая, помимо прочего, содержит довольно оригинальные промты.
Небольшой каталог промтов для ChatGPT и других текстовых нейросетей.
По сути гайд, но со множеством примеров универсальных промтов.
Репозиторий, посвящённый примерам использования
Neurobot.ru/prompts
Готовые промты для генерации изображений с помощью разных нейросетей.
Большая коллекция небанальных промтов, завёрнутая в курс.
Каталог промтов в первую очередь для GigaChat, но в целом применимых везде.
Коллекция универсальных промтов для создания контента и автоматизации рутины.
Библиотека промтов для ChatGPT, которые можно протестировать прямо на сайте.
База промтов для чат-ботов с рубрикатором, в котором можно выбрать самые разные задачи.
Библиотека промтов для генерации изображений и текста с обширным фильтром.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝3