RAG: Что это за зверь и зачем он нужен?
Сегодня по-быстрому разберём, что такое RAG и почему это круто.
RAG — это Retrieval-Augmented Generation. Если по-простому, это такая фишка в мире AI, которая делает наши ответы умнее и точнее.
Как это работает?
1. Retrieval (Извлечение инфы): Сначала модель ищет нужную инфу. Например, ты спрашиваешь, сколько лет Земле. Модель быстренько лазит по базе данных (или интернету) и находит свежие данные.
2. Generation (Генерация ответа): Потом модель берёт эту инфу и строит нормальный, связный ответ. В итоге ты получаешь не просто умозаключение модели, а проверенные данные.
Зачем это нужно?
Прикол в том, что модели вроде GPT-4, хоть и умные, но их знания ограничены моментом, когда их обучали. А RAG позволяет таким моделям быть всегда на волне актуальности. Хочешь узнать последние новости или свежие данные по какой-то теме — RAG тебе в помощь.
Пример в жизни
Представь, что ты спрашиваешь у модели: "Какие последние новости про космос?". Без RAG модель может ответить что-то общими словами, основываясь на старых данных. А с RAG она залезет в свежие статьи и даст тебе самую актуальную инфу.
RAG — это как суперсила для моделей AI. Она позволяет им быть не просто умными, а ещё и актуальными. Так что, если хочешь получать точные и свежие ответы, RAG — твой лучший друг.
А если хотите максимально погрузиться в мир LLM, Fine-tuned моделей и RAG, советую пройти бесплатный курс от Meta, Anthropic, Mistral и Fireworks-ai - https://parlance-labs.com/education/
Поделись этой инфой с друзьями, пусть тоже шарят за современные технологии! Всем мир! ✌️
Сегодня по-быстрому разберём, что такое RAG и почему это круто.
RAG — это Retrieval-Augmented Generation. Если по-простому, это такая фишка в мире AI, которая делает наши ответы умнее и точнее.
Как это работает?
1. Retrieval (Извлечение инфы): Сначала модель ищет нужную инфу. Например, ты спрашиваешь, сколько лет Земле. Модель быстренько лазит по базе данных (или интернету) и находит свежие данные.
2. Generation (Генерация ответа): Потом модель берёт эту инфу и строит нормальный, связный ответ. В итоге ты получаешь не просто умозаключение модели, а проверенные данные.
Зачем это нужно?
Прикол в том, что модели вроде GPT-4, хоть и умные, но их знания ограничены моментом, когда их обучали. А RAG позволяет таким моделям быть всегда на волне актуальности. Хочешь узнать последние новости или свежие данные по какой-то теме — RAG тебе в помощь.
Пример в жизни
Представь, что ты спрашиваешь у модели: "Какие последние новости про космос?". Без RAG модель может ответить что-то общими словами, основываясь на старых данных. А с RAG она залезет в свежие статьи и даст тебе самую актуальную инфу.
RAG — это как суперсила для моделей AI. Она позволяет им быть не просто умными, а ещё и актуальными. Так что, если хочешь получать точные и свежие ответы, RAG — твой лучший друг.
А если хотите максимально погрузиться в мир LLM, Fine-tuned моделей и RAG, советую пройти бесплатный курс от Meta, Anthropic, Mistral и Fireworks-ai - https://parlance-labs.com/education/
Поделись этой инфой с друзьями, пусть тоже шарят за современные технологии! Всем мир! ✌️
👍5❤3
Лечить зубы станет не так страшно... Или нет? 😰
Впервые в истории стоматологии автономный робот, управляемый ИИ, провёл целую процедуру на человеческом пациенте, причём сделал это примерно в восемь раз быстрее, чем обычный стоматолог.
Этот аппарат, разработанный бостонской компанией Perceptive, использует ручной 3D-сканер, который создаёт детализированную 3D-модель рта, включая зубы, десны и даже нервы под поверхностью зуба, используя оптическую когерентную томографию (ОКТ). Вот пример:
Быстрые оральные сканы с использованием ОКТ
Это исключает вредное рентгеновское излучение из процесса, так как ОКТ использует только световые лучи для создания объемных моделей, которые выходят с высоким разрешением, а кариес автоматически обнаруживается с точностью около 90%.
На этом этапе (человеческий) стоматолог и пациент могут обсудить, что нужно делать, но как только решения приняты, в дело вступает роботизированный стоматолог. Он планирует операцию, а затем просто берет и выполняет её.
Первая специализация машины: подготовка зуба для установки коронки. По словам Perceptive, это обычно двухчасовая процедура, которую стоматологи обычно разбивают на два визита. Робо-дантист справляется с этим примерно за 15 минут. Вот видео в ускоренном режиме с бурением, выглядящее как работа ЧПУ-станка:
Удивительно, но компания утверждает, что машина может работать безопасно "даже в самых подвижных условиях", и что тестовые испытания на движущихся людях были успешными. Тут реально нашлись отважные подопытные кролики.
"Мы рады успешно завершить первую в мире полностью автоматизированную стоматологическую процедуру," говорит доктор Крис Цириелло, генеральный директор и основатель Perceptive – явно мастер сухих и скучных пресс-релизов. "Этот медицинский прорыв повышает точность и эффективность стоматологических процедур и демократизирует доступ к лучшей стоматологической помощи, улучшая опыт пациента и клинические результаты. Мы с нетерпением ждем возможности усовершенствовать нашу систему и продвигать масштабируемые, полностью автоматизированные стоматологические решения для пациентов."
"Роботизированная система Perceptive на базе ИИ преобразит стоматологию," добавляет Карим Заклама, DDS, общий стоматолог и член клинического консультативного совета Perceptive. "Опыт пациента станет лучше благодаря упрощению процедур и повышению комфорта пациента. Продвинутые возможности визуализации, особенно интраоральный сканер, предоставляют непревзойдённые детали, что позволит нам диагностировать проблемы раньше с большей точностью и эффективнее взаимодействовать с пациентами. Эта эффективность позволяет нам больше сосредоточиться на персонализированном уходе за пациентами и сокращает время на кресле, что позволяет нам эффективно лечить больше пациентов."
Роботизированный стоматолог, похоже, занимает гораздо меньше места в вашем рту, чем человек
Хотя, конечно, страшновато представить, как сидишь в кресле и позволяешь роботу сверлить тебе зубы, не намного ли страшнее, чем когда это делает человек?
Высокоточная роботизированная хирургия под контролем человека уже делает гигантские шаги вперёд, устраняя необходимость в невероятно твёрдой руке – и, как мы видим в мире гуманоидов, как только вы начинаете телеперировать робота, вы, по сути, учите его выполнять ту же работу автономно. Так что, скорее всего, придётся привыкать к этой идее в ближайшие годы.
И тут явно есть преимущества. Если вы сидите в кресле робо-дантиста всего четверть часа вместо двух часовых марафонов, это огромное улучшение. Похоже, не нужно так широко открывать рот, что может сделать эти 15 минут менее утомительными. И хотя система определённо будет стоить денег, она экономит столько времени, что счета за стоматологию могут значительно снизиться.
Робот пока не одобрен FDA, и Perceptive не указала сроки запуска, так что, возможно, пройдёт несколько лет, прежде чем общественность получит доступ к такому лечению.
Впервые в истории стоматологии автономный робот, управляемый ИИ, провёл целую процедуру на человеческом пациенте, причём сделал это примерно в восемь раз быстрее, чем обычный стоматолог.
Этот аппарат, разработанный бостонской компанией Perceptive, использует ручной 3D-сканер, который создаёт детализированную 3D-модель рта, включая зубы, десны и даже нервы под поверхностью зуба, используя оптическую когерентную томографию (ОКТ). Вот пример:
Быстрые оральные сканы с использованием ОКТ
Это исключает вредное рентгеновское излучение из процесса, так как ОКТ использует только световые лучи для создания объемных моделей, которые выходят с высоким разрешением, а кариес автоматически обнаруживается с точностью около 90%.
На этом этапе (человеческий) стоматолог и пациент могут обсудить, что нужно делать, но как только решения приняты, в дело вступает роботизированный стоматолог. Он планирует операцию, а затем просто берет и выполняет её.
Первая специализация машины: подготовка зуба для установки коронки. По словам Perceptive, это обычно двухчасовая процедура, которую стоматологи обычно разбивают на два визита. Робо-дантист справляется с этим примерно за 15 минут. Вот видео в ускоренном режиме с бурением, выглядящее как работа ЧПУ-станка:
Удивительно, но компания утверждает, что машина может работать безопасно "даже в самых подвижных условиях", и что тестовые испытания на движущихся людях были успешными. Тут реально нашлись отважные подопытные кролики.
"Мы рады успешно завершить первую в мире полностью автоматизированную стоматологическую процедуру," говорит доктор Крис Цириелло, генеральный директор и основатель Perceptive – явно мастер сухих и скучных пресс-релизов. "Этот медицинский прорыв повышает точность и эффективность стоматологических процедур и демократизирует доступ к лучшей стоматологической помощи, улучшая опыт пациента и клинические результаты. Мы с нетерпением ждем возможности усовершенствовать нашу систему и продвигать масштабируемые, полностью автоматизированные стоматологические решения для пациентов."
"Роботизированная система Perceptive на базе ИИ преобразит стоматологию," добавляет Карим Заклама, DDS, общий стоматолог и член клинического консультативного совета Perceptive. "Опыт пациента станет лучше благодаря упрощению процедур и повышению комфорта пациента. Продвинутые возможности визуализации, особенно интраоральный сканер, предоставляют непревзойдённые детали, что позволит нам диагностировать проблемы раньше с большей точностью и эффективнее взаимодействовать с пациентами. Эта эффективность позволяет нам больше сосредоточиться на персонализированном уходе за пациентами и сокращает время на кресле, что позволяет нам эффективно лечить больше пациентов."
Роботизированный стоматолог, похоже, занимает гораздо меньше места в вашем рту, чем человек
Хотя, конечно, страшновато представить, как сидишь в кресле и позволяешь роботу сверлить тебе зубы, не намного ли страшнее, чем когда это делает человек?
Высокоточная роботизированная хирургия под контролем человека уже делает гигантские шаги вперёд, устраняя необходимость в невероятно твёрдой руке – и, как мы видим в мире гуманоидов, как только вы начинаете телеперировать робота, вы, по сути, учите его выполнять ту же работу автономно. Так что, скорее всего, придётся привыкать к этой идее в ближайшие годы.
И тут явно есть преимущества. Если вы сидите в кресле робо-дантиста всего четверть часа вместо двух часовых марафонов, это огромное улучшение. Похоже, не нужно так широко открывать рот, что может сделать эти 15 минут менее утомительными. И хотя система определённо будет стоить денег, она экономит столько времени, что счета за стоматологию могут значительно снизиться.
Робот пока не одобрен FDA, и Perceptive не указала сроки запуска, так что, возможно, пройдёт несколько лет, прежде чем общественность получит доступ к такому лечению.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤1
Black Forest Labs: Новая эра генерации изображений
Позавчера, 1 августа 2024 года, стартап Black Forest Labs объявил о своём создании и сразу выкатил три крутых модели для генерации изображений по текстовому промпту — FLUX.1, позиционируя их лучшими на рынке.
Кто за этим стоит?
- Робин Ромбах (экс-Stability AI, индекс Хирша 22)
- Андреас Блаттманн (соавтор Latent Diffusion, индекс Хирша 18)
- Патрик Эссер (главный исследователь в Runway, индекс Хирша 18)
Что они сделали?
FLUX.1 — это семейство моделей с гибридной архитектурой и 12 млрд параметров. В основе — техники flow matching, positional embeddings и parallel attention layers.
Модели FLUX.1:
1. [pro] — Максимальная мощность, высочайшее качество, доступ через платный API. Цена на Replicate — $0,055 за изображение, на fal.ai — $0,05 за мегапиксель.
2. [dev] — Оптимизированная версия с открытыми весами. Для FP16 нужно 24 ГиБ видеопамяти, для FP8 — 12 ГиБ. Доступна на Hugging Face, fal.ai и Replicate.
3. [schnell] — Быстрая версия, лицензия Apache 2.0.
Цены: На Replicate одна картинка от [dev] стоит $0,030, на fal.ai — $0,025 за мегапиксель.
Инвестиции и планы
Black Forest Labs уже получил $31 млн инвестиций от Andreessen Horowitz и других крупных бизнес-ангелов.
Так что, если хочешь попробовать что-то новое и мощное в мире генерации изображений, не пропусти FLUX.1!
Подробнее можно прочитать здесь.
Позавчера, 1 августа 2024 года, стартап Black Forest Labs объявил о своём создании и сразу выкатил три крутых модели для генерации изображений по текстовому промпту — FLUX.1, позиционируя их лучшими на рынке.
Кто за этим стоит?
- Робин Ромбах (экс-Stability AI, индекс Хирша 22)
- Андреас Блаттманн (соавтор Latent Diffusion, индекс Хирша 18)
- Патрик Эссер (главный исследователь в Runway, индекс Хирша 18)
Что они сделали?
FLUX.1 — это семейство моделей с гибридной архитектурой и 12 млрд параметров. В основе — техники flow matching, positional embeddings и parallel attention layers.
Модели FLUX.1:
1. [pro] — Максимальная мощность, высочайшее качество, доступ через платный API. Цена на Replicate — $0,055 за изображение, на fal.ai — $0,05 за мегапиксель.
2. [dev] — Оптимизированная версия с открытыми весами. Для FP16 нужно 24 ГиБ видеопамяти, для FP8 — 12 ГиБ. Доступна на Hugging Face, fal.ai и Replicate.
3. [schnell] — Быстрая версия, лицензия Apache 2.0.
Цены: На Replicate одна картинка от [dev] стоит $0,030, на fal.ai — $0,025 за мегапиксель.
Инвестиции и планы
Black Forest Labs уже получил $31 млн инвестиций от Andreessen Horowitz и других крупных бизнес-ангелов.
Так что, если хочешь попробовать что-то новое и мощное в мире генерации изображений, не пропусти FLUX.1!
Подробнее можно прочитать здесь.
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Как ИИ помогает бороться с пробками и выбросами 🤩
Привет, сегодня расскажу про крутую инициативу от Google Research — Project Green Light. Этот проект направлен на снижение выбросов и оптимизацию работы светофоров с помощью ИИ.
В чём суть?
- Проблема: На перекрестках загрязнение воздуха может быть в 29 раз выше, чем на дорогах. Около половины выбросов происходит из-за разгона транспорта после остановки.
- Решение: Инженеры Google использовали данные из Google Maps для создания модели ИИ, которая оптимизирует работу светофоров, сокращая время ожидания и улучшая координацию между перекрёстками.
Как это работает?
Команда Green Light анализирует данные о движении и определяет точки для улучшения, например, сокращение времени красного сигнала в непиковые часы или согласование движения между перекрёстками. Городские инженеры могут внедрять эти рекомендации всего за пять минут, используя существующую инфраструктуру.
Результаты
- Тестирование: С 2021 года проект протестирован в более чем десятке городов, включая Рио-де-Жанейро, Сиэтл, Бангалор и Бостон.
- Экономия: Green Light работает на более чем 70 перекрёстках, помогая экономить топливо и снижать выбросы для 30 млн поездок ежемесячно.
- Потенциал: Сокращение остановок до 30% и снижение выбросов на перекрестках до 10%.
Проект Green Light — это отличная инициатива, показывающая, как ИИ может реально помочь в борьбе с пробками и загрязнением воздуха. Надеемся, что таких проектов будет больше!
Поделитесь этой инфой с друзьями и коллегами, пусть тоже будут в курсе новинок!
Привет, сегодня расскажу про крутую инициативу от Google Research — Project Green Light. Этот проект направлен на снижение выбросов и оптимизацию работы светофоров с помощью ИИ.
В чём суть?
- Проблема: На перекрестках загрязнение воздуха может быть в 29 раз выше, чем на дорогах. Около половины выбросов происходит из-за разгона транспорта после остановки.
- Решение: Инженеры Google использовали данные из Google Maps для создания модели ИИ, которая оптимизирует работу светофоров, сокращая время ожидания и улучшая координацию между перекрёстками.
Как это работает?
Команда Green Light анализирует данные о движении и определяет точки для улучшения, например, сокращение времени красного сигнала в непиковые часы или согласование движения между перекрёстками. Городские инженеры могут внедрять эти рекомендации всего за пять минут, используя существующую инфраструктуру.
Результаты
- Тестирование: С 2021 года проект протестирован в более чем десятке городов, включая Рио-де-Жанейро, Сиэтл, Бангалор и Бостон.
- Экономия: Green Light работает на более чем 70 перекрёстках, помогая экономить топливо и снижать выбросы для 30 млн поездок ежемесячно.
- Потенциал: Сокращение остановок до 30% и снижение выбросов на перекрестках до 10%.
Проект Green Light — это отличная инициатива, показывающая, как ИИ может реально помочь в борьбе с пробками и загрязнением воздуха. Надеемся, что таких проектов будет больше!
Поделитесь этой инфой с друзьями и коллегами, пусть тоже будут в курсе новинок!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥1
Илон Маск в подкасте с Лексом Фридманом сообщил, что второй пациент успешно получил нейроимплант от Neuralink. Участник эксперимента, как и первый доброволец Ноланд Арбо, получил травму спинного мозга. В мозг нового пациента интегрировали 400 электродов, и, по словам Маска, всё прошло на ура.
Neuralink планирует установить ещё восемь имплантов в этом году. Несмотря на некоторые аппаратные проблемы с первым пациентом, команда не останавливается и продолжает улучшать технологии.
Маск обещает, что нейроимпланты дадут парализованным людям возможность управлять компьютерами силой мысли. Но это не всё! В будущем BCI от Neuralink может подарить людям тепловое зрение, лечить болезни, устранять неврологические расстройства и даже слепоту.
Маск уверен, что традиционное использование компьютеров покажется "мучительно медленным" после внедрения имплантов. В перспективе — объединение с ИИ для расширения возможностей мозга.
Буду держать вас в курсе всех новостей!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👌1
Что такое хакатон?
Хакатон — это ИТ-тусовка, где команды программистов, дизайнеров и менеджеров за короткий срок решают техничные задачи или предлагают новые продуктовые идеи. Цель — создать хотя бы базовый прототип или показать решение проблемы. Название "хакатон" происходит от слов "hack" (креативное решение задачи) и "марафон" (непрерывная работа), что идеально описывает атмосферу этих мероприятий, которые обычно длятся от 24 до 72 часов.
На хакатонах участники могут либо работать соло, используя свои идеи и навыки, либо объединяться в команды. Кульминация — презентация проектов перед жюри, которое оценивает инновационность, оригинальность и потенциал каждого решения.
Ближайшие хакатоны в августе и сентябре 2024
Вот список ближайших хакатонов в России.
1. ВШЭ ПСБ.Хак
Участвуй в хакатоне по искусственному интеллекту под руководством экспертов НИУ ВШЭ и ПСБ. Вместе разработаем новый финансовый продукт для студентов.
- Когда: 20-22 сентября (регистрация до 16 сентября).
- Где: онлайн/оффлайн в Москве
- Подробнее здесь.
2. Kazan Digital Transformation 2024
Прокачай цифровое развитие Казани и найди инновационные решения для городской среды. Выиграй денежный приз и получи стажировку или оффер в топовые компании.
- Когда:
- 12-13 августа (Онлайн-этап): разработка концепций.
- 14-23 августа: самостоятельная работа над проектом.
- 24-25 августа (Оффлайн-этап): работа над MVP в Казани. Финал и награждение победителей.
- Подробнее здесь.
3. Интенсив RTL.Hack
Хакатон (с фуршетом!) по теме “Автоматизированная сегментация поставщиков для их эффективного привлечения в электронные торги”. Прокачаем инструментарий сегментации поставщиков.
- Когда: 7 сентября 2024 года
- Где: оффлайн в Санкт-Петербурге
- Подробнее здесь.
4. Хакатон Всероссийского форума молодых ученых «Полюс»
Проходит в рамках трека «Инноваторы» и включает направления: искусственный интеллект, беспилотники, робототехника. Лучшие команды получат стажировки и ценные призы.
- Когда: Онлайн – 16 по 29 сентября. Офлайн – 30 сентября по 3 октября.
- Где: онлайн и Архангельск.
- Подробнее здесь.
5. Окружной хакатон в Омске. Цифровой Прорыв: сезон Искусственный Интеллект
Командное соревнование, где решаются кейсы от государства и бизнеса по ИИ и другим IT-тематикам. Участвовать можно онлайн и офлайн.
- Когда: 6-8 сентября (регистрация до 29 августа)
- Где: онлайн/оффлайн в Омске
- Подробнее здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Давайте сыграем с Вами в игру 🤡
Я уже устраиваил такую викторину месяца 4 назад, но за это время все модели обновились и теперь интересно проверить, как хорошо вы определяете, где сгенерированная фотография, а где нет.
Скажу сразу, что я использовал нейронки, которые доступны бесплатно: krea.ai, LeonardoAI, Шедеврум и Ideogram и одна картинка реальная.
Я сейчас сделаю опрос, в котором вы попытаетесь угадать, какая фотография реальная. А в комментариях можете предположить, в каких программах какое изображение сгенерировано.
Я уже устраиваил такую викторину месяца 4 назад, но за это время все модели обновились и теперь интересно проверить, как хорошо вы определяете, где сгенерированная фотография, а где нет.
Скажу сразу, что я использовал нейронки, которые доступны бесплатно: krea.ai, LeonardoAI, Шедеврум и Ideogram и одна картинка реальная.
Я сейчас сделаю опрос, в котором вы попытаетесь угадать, какая фотография реальная. А в комментариях можете предположить, в каких программах какое изображение сгенерировано.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
ИИ всех переиграл 😏
Итак, по результатам, из всего количества ответов, правильно распознали настоящее фото только 34%.
Это что получается, скоро мы вообще не сможем отличить где ИИ-фото, а где нет?
P.S. скоро опубликую обзор на нейронку.
Итак, по результатам, из всего количества ответов, правильно распознали настоящее фото только 34%.
Это что получается, скоро мы вообще не сможем отличить где ИИ-фото, а где нет?
P.S. скоро опубликую обзор на нейронку.
Please open Telegram to view this post
VIEW IN TELEGRAM
Вигл-вигли. Нейронка для видосиков с танцами 🕺
Снова у нас на обзоре стилизация видео с людьми и танцами. Называется, как можно понять, ViggleAI. Есть приложения для Android, IOS и веб-версия.
Дают 10 бесплатных генераций в день, что очень щедро, но на видео будет вотермарка. А платная версия стоит 10$.
Как вообще работает и что делает?
По сути, она просто накладывает на исходное видео, персонажа, которого вы загружаете. Так сказать, натягивают сову на глобус.
В том примере, который я видел, сервис делает это достаточно неплохо. Но я люблю устраивать стресс-тесты для них и давать тяжелые задачи.
Этот раз не стал исключением. Я взял видео с очень активным танцем и сменой ракурсов и росомаху, как замену персонажа.
По алгоритму действий все то же самое, как я описывал выше. Но еще есть функция работы с задником. Как я понимаю, можно убрать фон, заменив его зеленкой и потом добавить что хотите.
Результат с таким сложным видео , естественно, получился не очень. Все смазано и сильно заметно, что это ии-шная замена, но я залью это видео в тик-ток и посмотрю, как оно будет продвигаться.
А вы можете устроить свои эксперименты. Если хотите добиться хорошего результата, то ловите пару рекомендаций:
- подбирайте исходники с хорошим качеством и в полный рост;
- старайтесь учитывать комплекцию персонажей так, чтобы они были примерно одного размера;
- и выбирайте видео с не самыми сложными движениями.
Успехов Вам и делитесь своими примерами в комментариях.
Снова у нас на обзоре стилизация видео с людьми и танцами. Называется, как можно понять, ViggleAI. Есть приложения для Android, IOS и веб-версия.
Дают 10 бесплатных генераций в день, что очень щедро, но на видео будет вотермарка. А платная версия стоит 10$.
Как вообще работает и что делает?
По сути, она просто накладывает на исходное видео, персонажа, которого вы загружаете. Так сказать, натягивают сову на глобус.
В том примере, который я видел, сервис делает это достаточно неплохо. Но я люблю устраивать стресс-тесты для них и давать тяжелые задачи.
Этот раз не стал исключением. Я взял видео с очень активным танцем и сменой ракурсов и росомаху, как замену персонажа.
По алгоритму действий все то же самое, как я описывал выше. Но еще есть функция работы с задником. Как я понимаю, можно убрать фон, заменив его зеленкой и потом добавить что хотите.
Результат с таким сложным видео , естественно, получился не очень. Все смазано и сильно заметно, что это ии-шная замена, но я залью это видео в тик-ток и посмотрю, как оно будет продвигаться.
А вы можете устроить свои эксперименты. Если хотите добиться хорошего результата, то ловите пару рекомендаций:
- подбирайте исходники с хорошим качеством и в полный рост;
- старайтесь учитывать комплекцию персонажей так, чтобы они были примерно одного размера;
- и выбирайте видео с не самыми сложными движениями.
Успехов Вам и делитесь своими примерами в комментариях.
❤3👍1🥱1
Три гения из Копенгагенского университета разработали приложение на базе ИИ, которое способно определять фазу рентгеновских лучей, дифрагированных кристаллами. Это открытие прокладывает путь к точному предсказанию структуры небольших молекул!
Как это работает
Традиционно, чтобы понять структуру молекул, их превращают в кристаллы и облучают рентгеном. Но загвоздка в том, что фазу лучей определить сложно, и часто приходится угадывать, что ведет к неточным данным.
Теперь, благодаря приложению PhAI, эта проблема решена! Исследователи создали миллионы искусственных моделей молекул и обучили ИИ распознавать размытые паттерны. Результат? Точная структура 2400 молекул!
Что дальше?
Команда планирует расширить возможности PhAI и интегрировать его с моделями типа ChatGPT для автоматизации анализа.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Программисты с жиру бесятся? 😡
🔥 Результаты ежегодного опроса Stack Overflow: что бесит разработчиков?
Недавний опрос Stack Overflow зацепил сразу несколько горячих тем: от искусственного интеллекта до рекордного недовольства на работе. Разработчики по всему миру явно не в восторге от своих условий труда.
💥 Неудовлетворенность работой: 80% профи не счастливы на работе. Каждый третий откровенно ненавидит её, а половина выживает как может. Высокие зарплаты и удаленка не спасают.
💸 Деньги и ожидания: ЗП начинают падать. Например, PHP-разработчики получают в среднем $49,000 в год. Только те, кто совмещает кодинг с предпринимательством, реально выигрывают.
Технический долг: Это раздражает больше всего. Костыли и несовершенные системы деморализуют и мешают работать.
⏰ Культура суеты: Безумные дедлайны и завышенные ожидания ведут к выгоранию. Частая смена работы – временное спасение, но стресс возвращается.
Бюрократия: В крупных компаниях – бесконечные совещания и оторванные от реальности требования. Вместо кода – бумажная работа, и это бесит.
Здоровье и сокращения: Массовые увольнения породили неуверенность. А сидячая работа вредит здоровью. Движение – наше всё!
⚡️ Код – не проблема: Несмотря на всё, 68% пишут код в свободное время для фана, почти 40% – ради роста и обучения. Проблема не в коде, а в условиях!
Разработчики, держитесь!👊
Недавний опрос Stack Overflow зацепил сразу несколько горячих тем: от искусственного интеллекта до рекордного недовольства на работе. Разработчики по всему миру явно не в восторге от своих условий труда.
Технический долг: Это раздражает больше всего. Костыли и несовершенные системы деморализуют и мешают работать.
Бюрократия: В крупных компаниях – бесконечные совещания и оторванные от реальности требования. Вместо кода – бумажная работа, и это бесит.
Здоровье и сокращения: Массовые увольнения породили неуверенность. А сидячая работа вредит здоровью. Движение – наше всё!
Разработчики, держитесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
Тонкое искусство настройки LLM 👌
Я тут понял, что уже успел Вам рассказать, что такое, RAG - вот пост, если что, но так и не рассказал про его предвестника - Fine-tuned model, иди же, говоря по-русски, тонкую настройку LLM.
Ниже я исправляюсь, но перед этим дам вам понимание в чем разница между RAG и Fine-tuned. В первом случае LLM будет использовать для ответов информацию только из того источника, который вы ей предоставите, а во втором использовать собственные данные и те, которые вы ей дополнительно дадите. Итак:
Как работает Fine-tuning❓
Fine-tuning — это процесс дообучения модели на специфических данных. После общего обучения модель дорабатывают, чтобы она стала экспертом в конкретной области.
Процесс:
1. Предварительное обучение: Модель обучается на разнородных данных, чтобы понять структуру и нюансы языка.
2. Тонкая настройка (Fine-tuning): Модель дообучают на узконаправленных данных, например, медицинских или юридических текстах, чтобы она могла решать специфические задачи.
🕹 Зачем это нужно?
Fine-tuning позволяет модели стать более специализированной и точной:
- Специализация: Модель адаптируется под конкретные задачи, будь то медицина, финансы или юриспруденция. Это как изучение узкой специализации после общего курса.
- Точность: Повышается качество выводов и снижается количество ошибок.
- Эффективность: Модель выполняет задачи быстрее и надёжнее.
💻 Примеры использования
- Медицина: Fine-tuned модели помогают врачам анализировать симптомы, предлагать диагнозы и даже разрабатывать планы лечения.
- Юриспруденция: Автоматизируют анализ контрактов, находят ключевые пункты и даже прогнозируют исходы судебных дел.
- Бизнес: Улучшают взаимодействие с клиентами через чат-боты, которые понимают и решают запросы быстрее.
🤖 Будущее с Fine-tuned LLM
Fine-tuned LLM — это мощный инструмент, который позволяет компаниям и специалистам добиваться лучших результатов. Это как иметь универсального помощника, который может адаптироваться к любым задачам. В мире, где точность и скорость решают всё, такие модели становятся незаменимыми.
Так что, если хотите сделать свои AI-решения умнее и эффективнее, Fine-tuning — ваш лучший друг!😀
Когда-нибудь мы дойдем до того, что я буду не просто описывать общими словами как это работает и для чего применяется, а давать инструкции, но пока что стараюсь разобраться сам.
Я тут понял, что уже успел Вам рассказать, что такое, RAG - вот пост, если что, но так и не рассказал про его предвестника - Fine-tuned model, иди же, говоря по-русски, тонкую настройку LLM.
Ниже я исправляюсь, но перед этим дам вам понимание в чем разница между RAG и Fine-tuned. В первом случае LLM будет использовать для ответов информацию только из того источника, который вы ей предоставите, а во втором использовать собственные данные и те, которые вы ей дополнительно дадите. Итак:
Как работает Fine-tuning
Fine-tuning — это процесс дообучения модели на специфических данных. После общего обучения модель дорабатывают, чтобы она стала экспертом в конкретной области.
Процесс:
1. Предварительное обучение: Модель обучается на разнородных данных, чтобы понять структуру и нюансы языка.
2. Тонкая настройка (Fine-tuning): Модель дообучают на узконаправленных данных, например, медицинских или юридических текстах, чтобы она могла решать специфические задачи.
Fine-tuning позволяет модели стать более специализированной и точной:
- Специализация: Модель адаптируется под конкретные задачи, будь то медицина, финансы или юриспруденция. Это как изучение узкой специализации после общего курса.
- Точность: Повышается качество выводов и снижается количество ошибок.
- Эффективность: Модель выполняет задачи быстрее и надёжнее.
- Медицина: Fine-tuned модели помогают врачам анализировать симптомы, предлагать диагнозы и даже разрабатывать планы лечения.
- Юриспруденция: Автоматизируют анализ контрактов, находят ключевые пункты и даже прогнозируют исходы судебных дел.
- Бизнес: Улучшают взаимодействие с клиентами через чат-боты, которые понимают и решают запросы быстрее.
Fine-tuned LLM — это мощный инструмент, который позволяет компаниям и специалистам добиваться лучших результатов. Это как иметь универсального помощника, который может адаптироваться к любым задачам. В мире, где точность и скорость решают всё, такие модели становятся незаменимыми.
Так что, если хотите сделать свои AI-решения умнее и эффективнее, Fine-tuning — ваш лучший друг!
Когда-нибудь мы дойдем до того, что я буду не просто описывать общими словами как это работает и для чего применяется, а давать инструкции, но пока что стараюсь разобраться сам.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Братишка, я тебе покушать принёс 🌈
Точнее, большое количество ссылок с промптами и инструкциями по применению различных нейросетей, от LLM до генераторов изображений.
Пользуйтесь:
🔤 Pompthero.com/
Огромная библиотека промтов для генерации изображений с удобной навигацией.
🔤 Docs.anthropic.com/en/prompt-library/library
Документация с промтами в первую очередь для чат-бота Claude.
🔤 Promptlibrary.org/
Промты и примеры картинок, созданных нейросетью Midjourney.
🔤 Snackprompt.com/
Большая библиотека промтов для разных нейросетей, есть платные предложения.
🔤 Writesonic.com/blog/chatgpt-prompts
Структурированная статья с примерами промтов для ChatGPT.
🔤 Ailib.ru/promts/
Очень много промтов и примерно столько же рекламы, есть поиск и рубрики.
🔤 Prompthackers.co/
Коллекция, которая, помимо прочего, содержит довольно оригинальные промты.
🔤 Awesomegptprompts.com/categories
Небольшой каталог промтов для ChatGPT и других текстовых нейросетей.
🔤 Learnprompting.org/ru/docs/introduction
По сути гайд, но со множеством примеров универсальных промтов.
🔤 Prompts.chat
Репозиторий, посвящённый примерам использования
Neurobot.ru/prompts
Готовые промты для генерации изображений с помощью разных нейросетей.
🔤 Academy.bothub.chat/biblioteka-promtov
Большая коллекция небанальных промтов, завёрнутая в курс.
🔤 Developers.sber.ru/help/gigachat/catalog
Каталог промтов в первую очередь для GigaChat, но в целом применимых везде.
🔤 Ai.mitup.ru/prompts
Коллекция универсальных промтов для создания контента и автоматизации рутины.
🔤 Gptchat4.ru/prompts
Библиотека промтов для ChatGPT, которые можно протестировать прямо на сайте.
🔤 Prompt-chatgpt.ru/biblioteka-promptov/
База промтов для чат-ботов с рубрикатором, в котором можно выбрать самые разные задачи.
🔤 Prompt1.ru/
Библиотека промтов для генерации изображений и текста с обширным фильтром.
Точнее, большое количество ссылок с промптами и инструкциями по применению различных нейросетей, от LLM до генераторов изображений.
Пользуйтесь:
Огромная библиотека промтов для генерации изображений с удобной навигацией.
Документация с промтами в первую очередь для чат-бота Claude.
Промты и примеры картинок, созданных нейросетью Midjourney.
Большая библиотека промтов для разных нейросетей, есть платные предложения.
Структурированная статья с примерами промтов для ChatGPT.
Очень много промтов и примерно столько же рекламы, есть поиск и рубрики.
Коллекция, которая, помимо прочего, содержит довольно оригинальные промты.
Небольшой каталог промтов для ChatGPT и других текстовых нейросетей.
По сути гайд, но со множеством примеров универсальных промтов.
Репозиторий, посвящённый примерам использования
Neurobot.ru/prompts
Готовые промты для генерации изображений с помощью разных нейросетей.
Большая коллекция небанальных промтов, завёрнутая в курс.
Каталог промтов в первую очередь для GigaChat, но в целом применимых везде.
Коллекция универсальных промтов для создания контента и автоматизации рутины.
Библиотека промтов для ChatGPT, которые можно протестировать прямо на сайте.
База промтов для чат-ботов с рубрикатором, в котором можно выбрать самые разные задачи.
Библиотека промтов для генерации изображений и текста с обширным фильтром.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝3
Что такое AGI и когда ждать❓
AGI (Artificial General Intelligence) — это искусственный интеллект, который может делать всё как человек. Представь себе ИИ, который и код пишет, и музыку сочиняет, и котиков рисует. Это как если бы ваш смартфон вдруг стал лучшим другом, с которым можно обсудить всё на свете.
Суть AGI
В отличие от узконаправленных ИИ, как Alexa или Siri, которые помогают с конкретными задачами, AGI должен быть универсальным. Представь, что у твоего компьютера появились настоящие мозги!
На данный момент основные направления исследований в области AGI включают:
1. Усиленное обучение (Reinforcement Learning):
- Разработка алгоритмов, позволяющих системам обучаться через взаимодействие с окружающей средой.
2. Метаобучение (Meta-learning):
- Создание систем, которые могут учиться учиться, адаптируясь к новым задачам с минимальными данными.
3. Объяснимый ИИ (Explainable AI):
- Улучшение способности ИИ объяснять свои решения, чтобы повысить доверие и понимание.
4. Нейроморфные вычисления:
- Использование архитектур, вдохновлённых человеческим мозгом, для повышения эффективности обучения и обработки информации.
5. Интеграция многомодальных данных:
- Разработка моделей, способных обрабатывать и интегрировать различные типы данных (текст, изображения, аудио).
6. Общая теория интеллекта:
- Исследования, направленные на понимание и моделирование принципов, лежащих в основе человеческого мышления.
Эти направления помогают приблизиться к созданию более универсальных и адаптивных систем.
Почему AGI сейчас невозможен
1. Ограниченные алгоритмы:
- Современные ИИ обучаются на специфических данных и выполняют конкретные задачи. Они не могут обобщать знания или адаптироваться к совершенно новым ситуациям, как это делает человек.
2. Отсутствие понимания контекста:
- ИИ может разбираться в текстах и изображениях, но не понимает их так, как человек. Например, ИИ может описать картину, но не почувствовать её атмосферу.
3. Невозможность самообучения:
- Сегодняшние модели требуют огромных массивов данных и корректировки от людей. Настоящий AGI должен учиться сам, как ребёнок, экспериментируя и запоминая.
4. Энергопотребление и вычислительные мощности:
- Современные ИИ требуют колоссальных ресурсов. Например, обучение больших моделей, как GPT, занимает тысячи GPU-часов. AGI потребовал бы ещё больше.
5. Отсутствие общей теории интеллекта:
- Мы до сих пор не понимаем, как работает человеческий мозг на уровне, достаточном для его полной симуляции.
Проблемы на пути к AGI
- Этические вопросы:
- Контроль и безопасность — как предотвратить возможные негативные последствия?
- Ресурсы:
- Огромные мощности и данные необходимы для обучения. Это требует значительных вложений.
Когда ждать AGI?
Оптимисты говорят, что это вопрос десятилетий, пессимисты — полувека. Но технологии развиваются стремительно. Вспомни, как быстро телефоны стали умными — может, и здесь всё произойдёт быстрее.
AGI — это как научная фантастика, которая становится реальностью. Главное — двигаться вперёд, но с умом.
AGI (Artificial General Intelligence) — это искусственный интеллект, который может делать всё как человек. Представь себе ИИ, который и код пишет, и музыку сочиняет, и котиков рисует. Это как если бы ваш смартфон вдруг стал лучшим другом, с которым можно обсудить всё на свете.
Суть AGI
В отличие от узконаправленных ИИ, как Alexa или Siri, которые помогают с конкретными задачами, AGI должен быть универсальным. Представь, что у твоего компьютера появились настоящие мозги!
На данный момент основные направления исследований в области AGI включают:
1. Усиленное обучение (Reinforcement Learning):
- Разработка алгоритмов, позволяющих системам обучаться через взаимодействие с окружающей средой.
2. Метаобучение (Meta-learning):
- Создание систем, которые могут учиться учиться, адаптируясь к новым задачам с минимальными данными.
3. Объяснимый ИИ (Explainable AI):
- Улучшение способности ИИ объяснять свои решения, чтобы повысить доверие и понимание.
4. Нейроморфные вычисления:
- Использование архитектур, вдохновлённых человеческим мозгом, для повышения эффективности обучения и обработки информации.
5. Интеграция многомодальных данных:
- Разработка моделей, способных обрабатывать и интегрировать различные типы данных (текст, изображения, аудио).
6. Общая теория интеллекта:
- Исследования, направленные на понимание и моделирование принципов, лежащих в основе человеческого мышления.
Эти направления помогают приблизиться к созданию более универсальных и адаптивных систем.
Почему AGI сейчас невозможен
1. Ограниченные алгоритмы:
- Современные ИИ обучаются на специфических данных и выполняют конкретные задачи. Они не могут обобщать знания или адаптироваться к совершенно новым ситуациям, как это делает человек.
2. Отсутствие понимания контекста:
- ИИ может разбираться в текстах и изображениях, но не понимает их так, как человек. Например, ИИ может описать картину, но не почувствовать её атмосферу.
3. Невозможность самообучения:
- Сегодняшние модели требуют огромных массивов данных и корректировки от людей. Настоящий AGI должен учиться сам, как ребёнок, экспериментируя и запоминая.
4. Энергопотребление и вычислительные мощности:
- Современные ИИ требуют колоссальных ресурсов. Например, обучение больших моделей, как GPT, занимает тысячи GPU-часов. AGI потребовал бы ещё больше.
5. Отсутствие общей теории интеллекта:
- Мы до сих пор не понимаем, как работает человеческий мозг на уровне, достаточном для его полной симуляции.
Проблемы на пути к AGI
- Этические вопросы:
- Контроль и безопасность — как предотвратить возможные негативные последствия?
- Ресурсы:
- Огромные мощности и данные необходимы для обучения. Это требует значительных вложений.
Когда ждать AGI?
Оптимисты говорят, что это вопрос десятилетий, пессимисты — полувека. Но технологии развиваются стремительно. Вспомни, как быстро телефоны стали умными — может, и здесь всё произойдёт быстрее.
AGI — это как научная фантастика, которая становится реальностью. Главное — двигаться вперёд, но с умом.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4