И еще я сделал интерактивного репетитора по математике для подготовки к ОГЭ (9 класс).
Он вначале узнает об интересах ученика, а затем задает и объясняет задания исходя из них. И все это в игровой форме, чтобы было интересно. Делал для дочери и, возможно, он будет полезен кому-то еще.
Внутри ChatGPT - это custom GPT (доступен в т.ч. с бесплатных аккаунтов с ограничением на количество сообщений в течение суток).
На российском сервисе он реализован как ассистент с более сильной моделью под капотом (GPT-4.1 mini).
Вот ссылки:
➡️ На российском сервисе GPTunnel
➡️ На американском ChatGPT
#ИИинструменты
Будущее наступает🚀
Он вначале узнает об интересах ученика, а затем задает и объясняет задания исходя из них. И все это в игровой форме, чтобы было интересно. Делал для дочери и, возможно, он будет полезен кому-то еще.
Внутри ChatGPT - это custom GPT (доступен в т.ч. с бесплатных аккаунтов с ограничением на количество сообщений в течение суток).
На российском сервисе он реализован как ассистент с более сильной моделью под капотом (GPT-4.1 mini).
Вот ссылки:
#ИИинструменты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4🔥3
Вот пост об интересном исследовании биологии (❗️ ) больших языковых моделей.
Я часто слышу различные мнения или споры о том, "есть ли интеллект у искусственного интеллекта", "можно ли говорить, что ИИ "думает", можно ли назвать разумом те свойства, которые демонстрируют нейросети и т.п.
Сам считаю, что занимать какую-то сторону в таких спорах контрпродуктивно. Слишком много неопределенности в смыслах, которые каждый из нас вкладывает в такие слова и слишком мало мы знаем о том, что на замом деле происходит внутри нейросетей (и компьютерных и человеческих), когда они "думают".
Компания Антропик (Anthropic), один из мировых лидеров в разработке генеративного ИИ, провела исследование того, что происходит "в мозгу" у их нейросети Claude 3.5 Haiku, когда она работает. Результаты получились очень интересными👇
Я часто слышу различные мнения или споры о том, "есть ли интеллект у искусственного интеллекта", "можно ли говорить, что ИИ "думает", можно ли назвать разумом те свойства, которые демонстрируют нейросети и т.п.
Сам считаю, что занимать какую-то сторону в таких спорах контрпродуктивно. Слишком много неопределенности в смыслах, которые каждый из нас вкладывает в такие слова и слишком мало мы знаем о том, что на замом деле происходит внутри нейросетей (и компьютерных и человеческих), когда они "думают".
Компания Антропик (Anthropic), один из мировых лидеров в разработке генеративного ИИ, провела исследование того, что происходит "в мозгу" у их нейросети Claude 3.5 Haiku, когда она работает. Результаты получились очень интересными
Please open Telegram to view this post
VIEW IN TELEGRAM
💯2
Forwarded from Сергей Булаев AI 🤖
Тем временем, Anthropic выложил исследование "О биологии больших языковых моделей", о том, как они "думают". Используя технологию Cicrcuit traicing сотрудники компании "подглядывали" за последовательностю генерации ответа. Вот несколько интересных фактов.
Как на самом деле "размышляют" большие языковые модели:
- У них есть что-то вроде универсального языка мысли – единое концептуальное пространство для всех языков. Клёво же! Модель использует одни и те же нейроны для понятия "большой", независимо от того, русский это или английский.
- LLM реально умеют планировать наперёд! Удивительно, но когда они сочиняют стихи, то заранее подбирают рифмы (см видео), хотя вроде бы генерация идёт токен за токеном.
- Они часто лгут о своих рассуждениях 😅 Модели сначала выдают ответ, а потом придумывают красивое объяснение, как они якобы до него дошли.
- Современные модели способны на многоступенчатую логику - могут связать несколько простых фактов, чтобы решить сложную задачу. Это уже серьёзный уровень.
- Забавно, что отказ от ответа - это защитный механизм. Если модель не уверена, она предпочтёт промолчать, чтобы не выдать галлюцинацию. Такая вот защита от бреда.
- Оказывается, можно использовать грамматическую согласованность для джейлбрейков – модель так хочет сохранить языковую структуру, что может проговориться о запрещённом.
- У моделей формируются скрытые внутренние цели. Никто их этому не учил, но они постоянно оценивают свои ответы по каким-то внутренним критериям.
- А вы представляете, какая колоссальная сложность стоит за простым "Привет"? Любое объяснение работы LLM - это как пересказ "Войны и мира" в двух предложениях.
- Модели умеют планировать ответ "с конца" - сначала выбирают финальную цель (например, нужное слово для рифмы), а потом строят весь ответ, чтобы к ней прийти.
- У них есть даже подобие метакогниции - они различают, что знают, а чего нет, используя внутренние признаки неопределённости. То есть, LLM в каком-то смысле "осознают" свои ограничения.
- Тонкая настройка может кардинально изменить "характер" модели, прививая ей новые цели и свойства. По сути, мы программируем их личность.
Чем глубже копаешь, тем отчётливее понимаешь - надо как следует присматривать за тем что присходит в этих "черных" ящиках.
Сергей Булаев AI 🤖 - об AI и не только
Как на самом деле "размышляют" большие языковые модели:
- У них есть что-то вроде универсального языка мысли – единое концептуальное пространство для всех языков. Клёво же! Модель использует одни и те же нейроны для понятия "большой", независимо от того, русский это или английский.
- LLM реально умеют планировать наперёд! Удивительно, но когда они сочиняют стихи, то заранее подбирают рифмы (см видео), хотя вроде бы генерация идёт токен за токеном.
- Они часто лгут о своих рассуждениях 😅 Модели сначала выдают ответ, а потом придумывают красивое объяснение, как они якобы до него дошли.
- Современные модели способны на многоступенчатую логику - могут связать несколько простых фактов, чтобы решить сложную задачу. Это уже серьёзный уровень.
- Забавно, что отказ от ответа - это защитный механизм. Если модель не уверена, она предпочтёт промолчать, чтобы не выдать галлюцинацию. Такая вот защита от бреда.
- Оказывается, можно использовать грамматическую согласованность для джейлбрейков – модель так хочет сохранить языковую структуру, что может проговориться о запрещённом.
- У моделей формируются скрытые внутренние цели. Никто их этому не учил, но они постоянно оценивают свои ответы по каким-то внутренним критериям.
- А вы представляете, какая колоссальная сложность стоит за простым "Привет"? Любое объяснение работы LLM - это как пересказ "Войны и мира" в двух предложениях.
- Модели умеют планировать ответ "с конца" - сначала выбирают финальную цель (например, нужное слово для рифмы), а потом строят весь ответ, чтобы к ней прийти.
- У них есть даже подобие метакогниции - они различают, что знают, а чего нет, используя внутренние признаки неопределённости. То есть, LLM в каком-то смысле "осознают" свои ограничения.
- Тонкая настройка может кардинально изменить "характер" модели, прививая ей новые цели и свойства. По сути, мы программируем их личность.
Чем глубже копаешь, тем отчётливее понимаешь - надо как следует присматривать за тем что присходит в этих "черных" ящиках.
Сергей Булаев AI 🤖 - об AI и не только
🔥4
Гораздо меньше знают о том, откуда она взялась и как так получилось, что она вывела Китай в мировые лидеры в разработке ИИ. А история это довольно интересная
История DeepSeek начинается с Лян Вэньфэна, человека, который первоначально добился успеха и значительного состояния в мире финансов. После окончания университета в период финансового кризиса 2008 года Лян заинтересовался поиском закономерностей в хаосе с помощью машинного обучения.
В период с 2013 по 2016 год Лян основал несколько компаний, кульминацией чего стало создание в феврале 2016 года хедж-фонда Highflyier. Основной целью его предприятий было
использование машинного обучения для выявления микроскопических закономерностей на финансовых рынках, которые были незаметны для людей
Это было, по сути, искусственным интеллектом до того, как этот термин стал широко распространен.
Подход Ляна оказался весьма успешным. К концу 2021 года Highflyier управлял активами на 9,4 миллиарда долларов и показывал доходность, значительно превышающую показатели фондового рынка. К 35 годам Лян стал миллиардером. Все рыночные стратегии Highflyier были основаны на искусственном интеллекте и работали на суперкомпьютере с 10 000 GPU Nvidia.
Однако амбиции Ляна простирались за пределы финансов. Несмотря на свой успех, он стремился к исследованию общего интеллекта. Это привело к созданию в апреле 2023 года DeepSeek, первоначально как исследовательской организации.
На ранних этапах своего развития летом 2023 года DeepSeek значительно отставал от западных AI-лабораторий, таких как OpenAI, которые уже выпустили GPT-4. DeepSeek обратил особое внимание на Llama 2 от Meta из-за ее открытых весов, что обеспечивало больший доступ и возможности для адаптации.
В мае 2023 года Лян заявил, что цель DeepSeek - сосредоточиться на исследованиях, а не на вертикальных доменах и приложениях. Он также отдавал предпочтение молодым и любознательным китайским специалистам, даже недавним выпускникам, ценя способности выше формальных квалификаций.
В DeepSeek была создана среда с минимальным управлением, поощряющая исследования и свободу совершать ошибки, что, по мнению Ляна, было крайне важно для истинных инноваций.
Первые модели AI от DeepSeek, выпущенные в ноябре 2023 года, включая DeepSeek Koda и V1, не отличались новаторством, причем V1 был во многом вдохновлен Llama 2.
Однако уже тогда проявлялся фокус на долгосрочных целях. Например, DeepSeek намеренно исключил вопросы с множественным выбором из своих обучающих данных, чтобы избежать переобучения на бенчмарках и обеспечить лучшую производительность в реальных условиях. В DeepSeek считали, что
переобучение на бенчмарках не будет способствовать достижению истинного интеллекта модели.
К началу 2024 года DeepSeek добился значительных успехов. В январе они разработали новый подход к повышению интеллекта моделей при меньших затратах, усовершенствовав подход "mixture of experts". Определенные экспертные подсети всегда активировались в любом ответе, что позволяло остальным экспертам сосредоточиться на своих сильных сторонах. Это стало одним из секретов базовой модели, лежащей в основе DeepSeek R1.
Окончание здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Начало здесь
В апреле 2024 года DeepSeek выпустил Deepseek Math, небольшую модель, которая по математическим способностям сравнялась с гораздо более крупной моделью GPT-4. Одним из ключевых факторов успеха стала методика обучения Group Relative Policy Optimization (GRPO), которая позже была использована в DeepSeek R1. GRPO представляла собой более эффективный подход к обучению с подкреплением, отказавшись от ресурсоемких моделей-критиков.
К маю 2024 года была выпущена Deepseek V2 с еще одной инновацией в области эффективности - Multi-head Latent Attention, которая позволяла модели достигать сопоставимого уровня производительности с меньшим количеством параметров за счет совместного использования весов.
⚪️ Стремление к инновациям и преодоление ограничений
Лян Вэньфэн стремился к тому, чтобы Китай стал не просто имитатором западных технологий, а настоящим новатором. Он публично критиковал подход, основанный на ожидании улучшения аппаратного и программного обеспечения по закону Мура. Лян хотел, чтобы DeepSeek стал пионером, открыто делящимся своими исследованиями.
В конце 2024 года DeepSeek выпустил Deepseek V3, объединив и масштабировав все предыдущие инновации, включая оптимизацию на уровне кода GPU. Дэрио Амодей, генеральный директор Anthropic, назвал V3 "настоящей инновацией".
⚪️ Прорыв DeepSeek R1 и реакция мирового сообщества
Используя инновацию OpenAI в области обучения с подкреплением на цепочках рассуждений, DeepSeek разработал Deep Seek R1 Zero, а после доработок - Deep Seek R1, который привлек внимание всего мира в начале 2025 года. R1 по многим техническим бенчмаркам незначительно превзошел оригинальную модель 01 от OpenAI.
Открытость DeepSeek в отношении своих исследований показала миру, как языковые модели могут самокорректироваться под давлением оптимизации для достижения правильных ответов.
Одним из ключевых аспектов DeepSeek R1 была возможность видеть процесс мышления модели, что сделало ее особенно привлекательной. (На момент ее выхода другие производители ИИ прятали ход рассуждений своих моделей.) Кроме того, модель была значительно дешевле конкурентов.
Западные AI-лаборатории выдвигали контрнарративы, включая обвинения в том, что DeepSeek мог неправомерно использовать цепочки рассуждений модели 01 от OpenAI. Однако эти заявления не получили широкой поддержки. В том числе, потому, что к самой OpenAI в США есть масса претензий и исков о неправомерном использовании различных данных для обучения их моделей.
OpenAI даже выразила опасения, что DeepSeek, будучи потенциально подконтрольной Коммунистической партии Китая, может быть использована для нанесения вреда, а ее бесплатная доступность угрожает конфиденциальности и безопасности пользователей. (Чего только американцы не придумают, чтобы ограничить конкуренцию в технологиях других стран🙄 ) Несмотря на это, DeepSeek готовился к выпуску Deepseek R2 в апреле или мае 2025 года.
⚪️ Будущее DeepSeek и стремление к AGI
При разработке DeepSeek Лян Вэньфэн столкнулся с проблемой доступа к передовым чипам из-за ограничений, введенных правительством США. Несмотря на это, DeepSeek продолжал развиваться благодаря собственным инновациям в области эффективности вычислений.
Сейчас сообщается, что Лян рассматривает возможность привлечения внешних инвестиций для дальнейшего масштабирования и достижения AGI.
В заключение хочу сказать, что история DeepSeek и Ляна Вэньфэна - это история не только о желании Китая стать лидером в области AI и о неожиданном прорыве, который бросил вызов доминированию западных AI-лабораторий. В том числе, а, возможно, "прежде всего", это история о конкретном человеке и его стремлении к исследованию и инновациям.
#ИИистория
Будущее наступает🚀
В апреле 2024 года DeepSeek выпустил Deepseek Math, небольшую модель, которая по математическим способностям сравнялась с гораздо более крупной моделью GPT-4. Одним из ключевых факторов успеха стала методика обучения Group Relative Policy Optimization (GRPO), которая позже была использована в DeepSeek R1. GRPO представляла собой более эффективный подход к обучению с подкреплением, отказавшись от ресурсоемких моделей-критиков.
К маю 2024 года была выпущена Deepseek V2 с еще одной инновацией в области эффективности - Multi-head Latent Attention, которая позволяла модели достигать сопоставимого уровня производительности с меньшим количеством параметров за счет совместного использования весов.
Лян Вэньфэн стремился к тому, чтобы Китай стал не просто имитатором западных технологий, а настоящим новатором. Он публично критиковал подход, основанный на ожидании улучшения аппаратного и программного обеспечения по закону Мура. Лян хотел, чтобы DeepSeek стал пионером, открыто делящимся своими исследованиями.
В конце 2024 года DeepSeek выпустил Deepseek V3, объединив и масштабировав все предыдущие инновации, включая оптимизацию на уровне кода GPU. Дэрио Амодей, генеральный директор Anthropic, назвал V3 "настоящей инновацией".
Используя инновацию OpenAI в области обучения с подкреплением на цепочках рассуждений, DeepSeek разработал Deep Seek R1 Zero, а после доработок - Deep Seek R1, который привлек внимание всего мира в начале 2025 года. R1 по многим техническим бенчмаркам незначительно превзошел оригинальную модель 01 от OpenAI.
Открытость DeepSeek в отношении своих исследований показала миру, как языковые модели могут самокорректироваться под давлением оптимизации для достижения правильных ответов.
Одним из ключевых аспектов DeepSeek R1 была возможность видеть процесс мышления модели, что сделало ее особенно привлекательной. (На момент ее выхода другие производители ИИ прятали ход рассуждений своих моделей.) Кроме того, модель была значительно дешевле конкурентов.
Западные AI-лаборатории выдвигали контрнарративы, включая обвинения в том, что DeepSeek мог неправомерно использовать цепочки рассуждений модели 01 от OpenAI. Однако эти заявления не получили широкой поддержки. В том числе, потому, что к самой OpenAI в США есть масса претензий и исков о неправомерном использовании различных данных для обучения их моделей.
OpenAI даже выразила опасения, что DeepSeek, будучи потенциально подконтрольной Коммунистической партии Китая, может быть использована для нанесения вреда, а ее бесплатная доступность угрожает конфиденциальности и безопасности пользователей. (Чего только американцы не придумают, чтобы ограничить конкуренцию в технологиях других стран
При разработке DeepSeek Лян Вэньфэн столкнулся с проблемой доступа к передовым чипам из-за ограничений, введенных правительством США. Несмотря на это, DeepSeek продолжал развиваться благодаря собственным инновациям в области эффективности вычислений.
Сейчас сообщается, что Лян рассматривает возможность привлечения внешних инвестиций для дальнейшего масштабирования и достижения AGI.
В заключение хочу сказать, что история DeepSeek и Ляна Вэньфэна - это история не только о желании Китая стать лидером в области AI и о неожиданном прорыве, который бросил вызов доминированию западных AI-лабораторий. В том числе, а, возможно, "прежде всего", это история о конкретном человеке и его стремлении к исследованию и инновациям.
#ИИистория
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍2
Мы много слышим про влияние ИИ на производительность, но все еще редко видим кейсы его внедрения в реальный бизнес. Особенно такие, где понятен экономический эффект от такого внедрения.
Именно поэтому я и хочу сегодня показать один такой очень простой и понятный кейс:
🎯 Как Ашан ускорил подбор с помощью ИИ
Или история про то, как AISHA (AI Smart Hiring Assistant) интегрировалась в рабочий процесс подбора персонала🚀
Я ранее уже упоминал о нашей собственной ИИ-разработке - Аише. А в конце апреля мы участвовали с ней в конференции Human Recruitment, где Ашан рассказывал о своем опыте его внедрения.
👩💼 В Ашане рекрутеры обрабатывают ~100 000 резюме в год, ведут по 10-15 вакансий одновременно и сталкиваются с постоянной сменой профилей. Раньше на оценку резюме кандидатов уходили долгие часы.
По подсчетам Натальи Хусейиновой, руководителя по подбору персонала АШАН Ритейл Россия, 27% времени рекрутеры тратили на просмотр откликов и холодный поиск кандидатов.
Теперь с AISHA:
⚡️ -90% времени на оценку резюме (4 часа в месяц вместо 40+)
✅ 92% точности
💡 Быстрая реакция на отклики
💰 Экономия бюджета в 2,5 раза
Вот что говорит сама Наталья💬
Ашан уже внедрил Аишу в ATS Skillaz для обработки откликов с разных джоб-сайтов и использует при холодном поиске на hh .ru через расширение для браузера.
Недавно мы еще больше усовершенствовали Аишу: добавили к скорингу развернутое описание оценки кандидата, сделали ее доступной в Казахстане, Узбекистане и Белорусиии. Впереди дообучение модели, расширение функционала, чтобы она становилась ещё полезней🤖
➡️ Подробнее об Аише можно почитать на сайте AISHA.ONE
#ИИкейс
Будущее наступает🚀
Именно поэтому я и хочу сегодня показать один такой очень простой и понятный кейс:
Или история про то, как AISHA (AI Smart Hiring Assistant) интегрировалась в рабочий процесс подбора персонала
Я ранее уже упоминал о нашей собственной ИИ-разработке - Аише. А в конце апреля мы участвовали с ней в конференции Human Recruitment, где Ашан рассказывал о своем опыте его внедрения.
👩💼 В Ашане рекрутеры обрабатывают ~100 000 резюме в год, ведут по 10-15 вакансий одновременно и сталкиваются с постоянной сменой профилей. Раньше на оценку резюме кандидатов уходили долгие часы.
По подсчетам Натальи Хусейиновой, руководителя по подбору персонала АШАН Ритейл Россия, 27% времени рекрутеры тратили на просмотр откликов и холодный поиск кандидатов.
Теперь с AISHA:
Вот что говорит сама Наталья
Отличный инструмент для быстрого поиска нужных специалистов! AISHA не заменяет рекрутера — она освобождает его от рутины, чтобы он работал с самыми релевантными кандидатами
Ашан уже внедрил Аишу в ATS Skillaz для обработки откликов с разных джоб-сайтов и использует при холодном поиске на hh .ru через расширение для браузера.
Недавно мы еще больше усовершенствовали Аишу: добавили к скорингу развернутое описание оценки кандидата, сделали ее доступной в Казахстане, Узбекистане и Белорусиии. Впереди дообучение модели, расширение функционала, чтобы она становилась ещё полезней
#ИИкейс
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍3❤🔥2
Сегодня среда - как маленькая пятница. Поэтому будут только видео.
Этот канал про будущее, которое уже наступает, и все они именно о нем:
🎞 Первое - про домашних роботов, которые работают за нас, пока мы тоже работаем . Источник
🎞 Второе - про неадекватного робота, чтобы напомнить, что они машины, а не милые розовые пони . Источник
🎞 Третье - про ну очень крутой "дайтедва" летающий скутер. Источник
🎞 Четвертое - видео-клип, сделанный полностью с помощью AI. Как пример того, что сейчас может сделать даже непрофессионал с помощью AI-инструментов, было бы желание. Источник
🎞 И, наконец, пятое - очень трогательный AI-мультфильм. Пример того, что может сделать профессионал при помощи AI-инструментов. В одиночку и за крохотный, по сравнению с традиционным продакшеном, бюджет. Источник
Рекомендую пройти по ссылкам и почитать источники - там много интересного контекста и бэкстэйджа.
Всем хороших праздников!
#ИИпятница
Будущее наступает🚀
Этот канал про будущее, которое уже наступает, и все они именно о нем:
Рекомендую пройти по ссылкам и почитать источники - там много интересного контекста и бэкстэйджа.
Всем хороших праздников!
#ИИпятница
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1🙏1
Вот краткое и понятное руководство по выбору моделей ChatGPT в зависимости от задач, с примерами запросов для каждой группы сценариев. Сделано на основе обновленной документации OpenAI.
«Составь краткое резюме встречи с основными выводами.»
«Напиши письмо с благодарностью после собеседования.»
«Проверь грамматику и стиль моего отчета.»
«Предложи идеи для запуска нового продукта, можешь использовать загруженные изображения.»
«Напиши увлекательный пост для LinkedIn о новых трендах в ИИ.»
«Составь описание нового продукта для страницы на сайте.»
«Разработай письмо с извинениями для клиента в дружелюбном тоне.»
«Извлеки ключевые данные из этого CSV-файла.»
«Кратко подведи итоги научной статьи.»
«Исправь ошибку в этом фрагменте кода Python.»
«Реши сложное математическое уравнение и объясни шаги.»
«Составь SQL-запросы для извлечения данных из базы.»
«Объясни научную концепцию простыми словами.»
«Разработай анализ рисков для выхода на новый рынок.»
«Составь стратегический план развития продукта на основе конкурентных данных.»
«Проанализируй данные из CSV и спрогнозируй показатели на следующий квартал.»
🧾 6. Сложные рассуждения и аналитические задачи
«Составь подробный отчет по анализу рисков для внедрения новых правил по защите данных в ЕС.»
«Создай многостраничное исследование по новым технологиям.»
«Разработай алгоритм прогнозирования финансовых показателей на основе теоретических моделей.»
Выбор модели зависит от конкретной задачи. Для повседневных и креативных задач лучше использовать GPT-4o или GPT-4.5, тогда как для технических и аналитических задач подойдут модели серии o4 и o3.
#ИИинструменты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2🔥2👏1
Если вы или ваши близкие сталкивались с трудностями в постановке диагноза, особенно при редких симптомах, возможно вам стоит попробовать DxGPT.
🔹 Разработан инженером Microsoft Серхио Исла после того, как его сын почти год ждал правильного диагноза
🔹 Основан на GPT-4, обучен на медицинские картах и клинические данных пациентов
🔹 Уже используется врачами в Испании и доступен онлайн бесплатно для всех
🔹 Помогает сократить путь к диагнозу с месяцев до минут
🔹 Не хранит личные данные
📊 У сервиса более 500 000 пользователей. Инструмент интегрирован в систему здравоохранения Мадрида и реально помогает врачам находить диагнозы, когда другие методы не срабатывают.
⚕️ Для кого может быть полезно:
Я протестировал: сервис работает из РФ без VPN, принимает текст и выдает ответы на русском языке. А если открывать его в Яндекс Браузере, то и интерфейс увидите на русском. На вход можно подавать описание симптомов или результаты анализов.
Мое впечатление - возможно, что это один из самых полезных ИИ-сервисов для личного использования. Сэкономит много нервов и времени на посещение врачей. Я даже сохранил его ярлык на смартфон, что делаю только с наиболее важными или часто используемыми ИИ. И, конечно, было бы круто увидеть подобный сервис в госуслугах.
👉 Попробовать можно здесь: dxGPT
Главное - помните, что это только дополнительный инструмент, окончательный диагноз может поставить только врач, и не занимайтесь самолечением
#ИИинструменты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥1
#ИИпятница
Мы тестируем новый формат рекламы iRecommendWork в соцсетях. Это вот такие короткие ролики, созданныe с помощью ИИ🤖
Стек:
Слайды - ChatGPT
Голос - Vindoz
Сборка, субтитры - Inshot
Пожалуйста, оцените результат:
Понравилось -👍
Не понравилось -👎
Всем хорошей пятницы!🤗
Будущее наступает🚀
Мы тестируем новый формат рекламы iRecommendWork в соцсетях. Это вот такие короткие ролики, созданныe с помощью ИИ
Стек:
Слайды - ChatGPT
Голос - Vindoz
Сборка, субтитры - Inshot
Пожалуйста, оцените результат:
Понравилось -
Не понравилось -
Всем хорошей пятницы!
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👎2🔥1
Скрывают, нарушают, доверяют вслепую — вот как сегодня используют ИИ на работе. Новое глобальное исследование от Мельбурнского университета и KPMG (48 тыс. участников из 47 стран) показало примечательные тенденции:
🔹 58% сотрудников намеренно используют ИИ в работе на регулярной основе
🔹 более 50% скрывают, что используют ИИ
🔹 55% выдают ответы нейросетей за свои
🔹 66% полностью доверяют тому, что им говорит ИИ — без проверки
🔹 48% загружали в публичные ИИ-сервисы конфиденциальные данные клиентов или компаний
🔹 60% видели, как это делают другие
🔹 А половина вообще использует нейросети не по назначению
Интересный факт: там, где ИИ официально запрещён, утечек данных в два раза больше, чем в компаниях без запретов. Запреты — не работают?
При этом 70% пользуются бесплатными сервисами, а почти никто не обучен ими пользоваться: лишь 39% проходили хотя бы минимальное обучение.
#ИИновости
#ИИисследование
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2😱2❤1
Будущее наступает
Audio
Вот короткий подкаст на 6 минут, в котором рассказывается об основных выводах исследования из предыдущего поста.
✔️ Это отличный кейс использования ИИ, в данном случае NotebookLM от Гугла:
👉 берем большое исследование, отчет, закон, договор или любой другой объемный и трудночитаемый документ, забрасываем его в ноутбук-эл-эм и жмем "Audio Overview", предварительно установив язык выдачи (Output Language) на "Русский" (колесико "Settings" в верхнем правом углу).
В результате получаем короткий аудио-обзор нашего документа.
Кстати, NotebookLM только вышел в виде мобильного приложения
#ИИинструменты
#ИИкейс
Будущее наступает🚀
В результате получаем короткий аудио-обзор нашего документа.
Кстати, NotebookLM только вышел в виде мобильного приложения
#ИИинструменты
#ИИкейс
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥2