Друзья, посмотрел интересный подкаст с Андреем Себрантом из Яндекса
Если у вас будет возможность посмотреть, рекомендую
#ИИновости
#ИИинтересно
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
На прошлой неделе в Harvard Business Review вышел отчет об исследовании 100 наиболее популярных кейсов использования ИИ в мире за последние 12 месяцев.
Они их изучили и отсортировали по популярности. А учитывая, что сегодня в мире ежедневно сотни миллионов людей ежедневно используют ИИ в своей жизни и работе, список получился весомым и захватывающим.
1. Личная и профессиональная поддержка — 31%
2. Создание и редактирование контента — 18%
3. Обучение и образование — 16%
4. Техническая помощь и устранение неисправностей — 15%
5. Творчество и развлечения — 11%
6. Исследования, анализ и выводы — 9%
1. Терапия / общение
2. Организация моей жизни (новый кейс)
3. Поиск смысла (новый кейс)
4. Расширенное обучение
5. Генерация кода (для профессионалов)
6. Генерация идей
7. Развлечения и мемы
8. Улучшение кода (для профессионалов)
9. Творчество
10. Здоровый образ жизни
Знаете, что интересно? Всего полтора года назад - в декабре 2023 г. - мы выступали в Институте Психологии на форуме "Осознанная Карьера", рассказывали про ИИ. После выступления нас спрашивали, сможет ли ИИ заменить психолога.
А сегодня, согласно исследованию HBR, психологическая помощь - это то, для чего миллионы людей чаще всего обращаются к ИИ. Потому, что:
1. доступно
2. дешево или бесплатно
3. нет риска, что тебя оценят или осудят
А по качеству - уже неотличимо от людей.
Интереснейший список всех 100 кейсов использования можно посмотреть в комментарии к этому посту
А в приложениях - оригинальный отчет HBR на английском и - для тех, у кого нет времени читать полный отчет - перевод краткого описания всех 100 кейсов на русский.
#ИИинтересно
#ИИюзкейсы
#ИИотчеты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3👏2
Будущее наступает
Всем доброго воскресного вечера!
В пятницу мой альбом "Оптимизм" вышел на российских музыкальных площадках. Теперь его можно слушать на Яндекс Музыке, ВК Музыке и Звуке.
Будущее наступает🚀
В пятницу мой альбом "Оптимизм" вышел на российских музыкальных площадках. Теперь его можно слушать на Яндекс Музыке, ВК Музыке и Звуке.
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤2😍2🤝1
И еще я сделал интерактивного репетитора по математике для подготовки к ОГЭ (9 класс).
Он вначале узнает об интересах ученика, а затем задает и объясняет задания исходя из них. И все это в игровой форме, чтобы было интересно. Делал для дочери и, возможно, он будет полезен кому-то еще.
Внутри ChatGPT - это custom GPT (доступен в т.ч. с бесплатных аккаунтов с ограничением на количество сообщений в течение суток).
На российском сервисе он реализован как ассистент с более сильной моделью под капотом (GPT-4.1 mini).
Вот ссылки:
➡️ На российском сервисе GPTunnel
➡️ На американском ChatGPT
#ИИинструменты
Будущее наступает🚀
Он вначале узнает об интересах ученика, а затем задает и объясняет задания исходя из них. И все это в игровой форме, чтобы было интересно. Делал для дочери и, возможно, он будет полезен кому-то еще.
Внутри ChatGPT - это custom GPT (доступен в т.ч. с бесплатных аккаунтов с ограничением на количество сообщений в течение суток).
На российском сервисе он реализован как ассистент с более сильной моделью под капотом (GPT-4.1 mini).
Вот ссылки:
#ИИинструменты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4🔥3
Вот пост об интересном исследовании биологии (❗️ ) больших языковых моделей.
Я часто слышу различные мнения или споры о том, "есть ли интеллект у искусственного интеллекта", "можно ли говорить, что ИИ "думает", можно ли назвать разумом те свойства, которые демонстрируют нейросети и т.п.
Сам считаю, что занимать какую-то сторону в таких спорах контрпродуктивно. Слишком много неопределенности в смыслах, которые каждый из нас вкладывает в такие слова и слишком мало мы знаем о том, что на замом деле происходит внутри нейросетей (и компьютерных и человеческих), когда они "думают".
Компания Антропик (Anthropic), один из мировых лидеров в разработке генеративного ИИ, провела исследование того, что происходит "в мозгу" у их нейросети Claude 3.5 Haiku, когда она работает. Результаты получились очень интересными👇
Я часто слышу различные мнения или споры о том, "есть ли интеллект у искусственного интеллекта", "можно ли говорить, что ИИ "думает", можно ли назвать разумом те свойства, которые демонстрируют нейросети и т.п.
Сам считаю, что занимать какую-то сторону в таких спорах контрпродуктивно. Слишком много неопределенности в смыслах, которые каждый из нас вкладывает в такие слова и слишком мало мы знаем о том, что на замом деле происходит внутри нейросетей (и компьютерных и человеческих), когда они "думают".
Компания Антропик (Anthropic), один из мировых лидеров в разработке генеративного ИИ, провела исследование того, что происходит "в мозгу" у их нейросети Claude 3.5 Haiku, когда она работает. Результаты получились очень интересными
Please open Telegram to view this post
VIEW IN TELEGRAM
💯2
Forwarded from Сергей Булаев AI 🤖
Тем временем, Anthropic выложил исследование "О биологии больших языковых моделей", о том, как они "думают". Используя технологию Cicrcuit traicing сотрудники компании "подглядывали" за последовательностю генерации ответа. Вот несколько интересных фактов.
Как на самом деле "размышляют" большие языковые модели:
- У них есть что-то вроде универсального языка мысли – единое концептуальное пространство для всех языков. Клёво же! Модель использует одни и те же нейроны для понятия "большой", независимо от того, русский это или английский.
- LLM реально умеют планировать наперёд! Удивительно, но когда они сочиняют стихи, то заранее подбирают рифмы (см видео), хотя вроде бы генерация идёт токен за токеном.
- Они часто лгут о своих рассуждениях 😅 Модели сначала выдают ответ, а потом придумывают красивое объяснение, как они якобы до него дошли.
- Современные модели способны на многоступенчатую логику - могут связать несколько простых фактов, чтобы решить сложную задачу. Это уже серьёзный уровень.
- Забавно, что отказ от ответа - это защитный механизм. Если модель не уверена, она предпочтёт промолчать, чтобы не выдать галлюцинацию. Такая вот защита от бреда.
- Оказывается, можно использовать грамматическую согласованность для джейлбрейков – модель так хочет сохранить языковую структуру, что может проговориться о запрещённом.
- У моделей формируются скрытые внутренние цели. Никто их этому не учил, но они постоянно оценивают свои ответы по каким-то внутренним критериям.
- А вы представляете, какая колоссальная сложность стоит за простым "Привет"? Любое объяснение работы LLM - это как пересказ "Войны и мира" в двух предложениях.
- Модели умеют планировать ответ "с конца" - сначала выбирают финальную цель (например, нужное слово для рифмы), а потом строят весь ответ, чтобы к ней прийти.
- У них есть даже подобие метакогниции - они различают, что знают, а чего нет, используя внутренние признаки неопределённости. То есть, LLM в каком-то смысле "осознают" свои ограничения.
- Тонкая настройка может кардинально изменить "характер" модели, прививая ей новые цели и свойства. По сути, мы программируем их личность.
Чем глубже копаешь, тем отчётливее понимаешь - надо как следует присматривать за тем что присходит в этих "черных" ящиках.
Сергей Булаев AI 🤖 - об AI и не только
Как на самом деле "размышляют" большие языковые модели:
- У них есть что-то вроде универсального языка мысли – единое концептуальное пространство для всех языков. Клёво же! Модель использует одни и те же нейроны для понятия "большой", независимо от того, русский это или английский.
- LLM реально умеют планировать наперёд! Удивительно, но когда они сочиняют стихи, то заранее подбирают рифмы (см видео), хотя вроде бы генерация идёт токен за токеном.
- Они часто лгут о своих рассуждениях 😅 Модели сначала выдают ответ, а потом придумывают красивое объяснение, как они якобы до него дошли.
- Современные модели способны на многоступенчатую логику - могут связать несколько простых фактов, чтобы решить сложную задачу. Это уже серьёзный уровень.
- Забавно, что отказ от ответа - это защитный механизм. Если модель не уверена, она предпочтёт промолчать, чтобы не выдать галлюцинацию. Такая вот защита от бреда.
- Оказывается, можно использовать грамматическую согласованность для джейлбрейков – модель так хочет сохранить языковую структуру, что может проговориться о запрещённом.
- У моделей формируются скрытые внутренние цели. Никто их этому не учил, но они постоянно оценивают свои ответы по каким-то внутренним критериям.
- А вы представляете, какая колоссальная сложность стоит за простым "Привет"? Любое объяснение работы LLM - это как пересказ "Войны и мира" в двух предложениях.
- Модели умеют планировать ответ "с конца" - сначала выбирают финальную цель (например, нужное слово для рифмы), а потом строят весь ответ, чтобы к ней прийти.
- У них есть даже подобие метакогниции - они различают, что знают, а чего нет, используя внутренние признаки неопределённости. То есть, LLM в каком-то смысле "осознают" свои ограничения.
- Тонкая настройка может кардинально изменить "характер" модели, прививая ей новые цели и свойства. По сути, мы программируем их личность.
Чем глубже копаешь, тем отчётливее понимаешь - надо как следует присматривать за тем что присходит в этих "черных" ящиках.
Сергей Булаев AI 🤖 - об AI и не только
🔥4
Гораздо меньше знают о том, откуда она взялась и как так получилось, что она вывела Китай в мировые лидеры в разработке ИИ. А история это довольно интересная
История DeepSeek начинается с Лян Вэньфэна, человека, который первоначально добился успеха и значительного состояния в мире финансов. После окончания университета в период финансового кризиса 2008 года Лян заинтересовался поиском закономерностей в хаосе с помощью машинного обучения.
В период с 2013 по 2016 год Лян основал несколько компаний, кульминацией чего стало создание в феврале 2016 года хедж-фонда Highflyier. Основной целью его предприятий было
использование машинного обучения для выявления микроскопических закономерностей на финансовых рынках, которые были незаметны для людей
Это было, по сути, искусственным интеллектом до того, как этот термин стал широко распространен.
Подход Ляна оказался весьма успешным. К концу 2021 года Highflyier управлял активами на 9,4 миллиарда долларов и показывал доходность, значительно превышающую показатели фондового рынка. К 35 годам Лян стал миллиардером. Все рыночные стратегии Highflyier были основаны на искусственном интеллекте и работали на суперкомпьютере с 10 000 GPU Nvidia.
Однако амбиции Ляна простирались за пределы финансов. Несмотря на свой успех, он стремился к исследованию общего интеллекта. Это привело к созданию в апреле 2023 года DeepSeek, первоначально как исследовательской организации.
На ранних этапах своего развития летом 2023 года DeepSeek значительно отставал от западных AI-лабораторий, таких как OpenAI, которые уже выпустили GPT-4. DeepSeek обратил особое внимание на Llama 2 от Meta из-за ее открытых весов, что обеспечивало больший доступ и возможности для адаптации.
В мае 2023 года Лян заявил, что цель DeepSeek - сосредоточиться на исследованиях, а не на вертикальных доменах и приложениях. Он также отдавал предпочтение молодым и любознательным китайским специалистам, даже недавним выпускникам, ценя способности выше формальных квалификаций.
В DeepSeek была создана среда с минимальным управлением, поощряющая исследования и свободу совершать ошибки, что, по мнению Ляна, было крайне важно для истинных инноваций.
Первые модели AI от DeepSeek, выпущенные в ноябре 2023 года, включая DeepSeek Koda и V1, не отличались новаторством, причем V1 был во многом вдохновлен Llama 2.
Однако уже тогда проявлялся фокус на долгосрочных целях. Например, DeepSeek намеренно исключил вопросы с множественным выбором из своих обучающих данных, чтобы избежать переобучения на бенчмарках и обеспечить лучшую производительность в реальных условиях. В DeepSeek считали, что
переобучение на бенчмарках не будет способствовать достижению истинного интеллекта модели.
К началу 2024 года DeepSeek добился значительных успехов. В январе они разработали новый подход к повышению интеллекта моделей при меньших затратах, усовершенствовав подход "mixture of experts". Определенные экспертные подсети всегда активировались в любом ответе, что позволяло остальным экспертам сосредоточиться на своих сильных сторонах. Это стало одним из секретов базовой модели, лежащей в основе DeepSeek R1.
Окончание здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Начало здесь
В апреле 2024 года DeepSeek выпустил Deepseek Math, небольшую модель, которая по математическим способностям сравнялась с гораздо более крупной моделью GPT-4. Одним из ключевых факторов успеха стала методика обучения Group Relative Policy Optimization (GRPO), которая позже была использована в DeepSeek R1. GRPO представляла собой более эффективный подход к обучению с подкреплением, отказавшись от ресурсоемких моделей-критиков.
К маю 2024 года была выпущена Deepseek V2 с еще одной инновацией в области эффективности - Multi-head Latent Attention, которая позволяла модели достигать сопоставимого уровня производительности с меньшим количеством параметров за счет совместного использования весов.
⚪️ Стремление к инновациям и преодоление ограничений
Лян Вэньфэн стремился к тому, чтобы Китай стал не просто имитатором западных технологий, а настоящим новатором. Он публично критиковал подход, основанный на ожидании улучшения аппаратного и программного обеспечения по закону Мура. Лян хотел, чтобы DeepSeek стал пионером, открыто делящимся своими исследованиями.
В конце 2024 года DeepSeek выпустил Deepseek V3, объединив и масштабировав все предыдущие инновации, включая оптимизацию на уровне кода GPU. Дэрио Амодей, генеральный директор Anthropic, назвал V3 "настоящей инновацией".
⚪️ Прорыв DeepSeek R1 и реакция мирового сообщества
Используя инновацию OpenAI в области обучения с подкреплением на цепочках рассуждений, DeepSeek разработал Deep Seek R1 Zero, а после доработок - Deep Seek R1, который привлек внимание всего мира в начале 2025 года. R1 по многим техническим бенчмаркам незначительно превзошел оригинальную модель 01 от OpenAI.
Открытость DeepSeek в отношении своих исследований показала миру, как языковые модели могут самокорректироваться под давлением оптимизации для достижения правильных ответов.
Одним из ключевых аспектов DeepSeek R1 была возможность видеть процесс мышления модели, что сделало ее особенно привлекательной. (На момент ее выхода другие производители ИИ прятали ход рассуждений своих моделей.) Кроме того, модель была значительно дешевле конкурентов.
Западные AI-лаборатории выдвигали контрнарративы, включая обвинения в том, что DeepSeek мог неправомерно использовать цепочки рассуждений модели 01 от OpenAI. Однако эти заявления не получили широкой поддержки. В том числе, потому, что к самой OpenAI в США есть масса претензий и исков о неправомерном использовании различных данных для обучения их моделей.
OpenAI даже выразила опасения, что DeepSeek, будучи потенциально подконтрольной Коммунистической партии Китая, может быть использована для нанесения вреда, а ее бесплатная доступность угрожает конфиденциальности и безопасности пользователей. (Чего только американцы не придумают, чтобы ограничить конкуренцию в технологиях других стран🙄 ) Несмотря на это, DeepSeek готовился к выпуску Deepseek R2 в апреле или мае 2025 года.
⚪️ Будущее DeepSeek и стремление к AGI
При разработке DeepSeek Лян Вэньфэн столкнулся с проблемой доступа к передовым чипам из-за ограничений, введенных правительством США. Несмотря на это, DeepSeek продолжал развиваться благодаря собственным инновациям в области эффективности вычислений.
Сейчас сообщается, что Лян рассматривает возможность привлечения внешних инвестиций для дальнейшего масштабирования и достижения AGI.
В заключение хочу сказать, что история DeepSeek и Ляна Вэньфэна - это история не только о желании Китая стать лидером в области AI и о неожиданном прорыве, который бросил вызов доминированию западных AI-лабораторий. В том числе, а, возможно, "прежде всего", это история о конкретном человеке и его стремлении к исследованию и инновациям.
#ИИистория
Будущее наступает🚀
В апреле 2024 года DeepSeek выпустил Deepseek Math, небольшую модель, которая по математическим способностям сравнялась с гораздо более крупной моделью GPT-4. Одним из ключевых факторов успеха стала методика обучения Group Relative Policy Optimization (GRPO), которая позже была использована в DeepSeek R1. GRPO представляла собой более эффективный подход к обучению с подкреплением, отказавшись от ресурсоемких моделей-критиков.
К маю 2024 года была выпущена Deepseek V2 с еще одной инновацией в области эффективности - Multi-head Latent Attention, которая позволяла модели достигать сопоставимого уровня производительности с меньшим количеством параметров за счет совместного использования весов.
Лян Вэньфэн стремился к тому, чтобы Китай стал не просто имитатором западных технологий, а настоящим новатором. Он публично критиковал подход, основанный на ожидании улучшения аппаратного и программного обеспечения по закону Мура. Лян хотел, чтобы DeepSeek стал пионером, открыто делящимся своими исследованиями.
В конце 2024 года DeepSeek выпустил Deepseek V3, объединив и масштабировав все предыдущие инновации, включая оптимизацию на уровне кода GPU. Дэрио Амодей, генеральный директор Anthropic, назвал V3 "настоящей инновацией".
Используя инновацию OpenAI в области обучения с подкреплением на цепочках рассуждений, DeepSeek разработал Deep Seek R1 Zero, а после доработок - Deep Seek R1, который привлек внимание всего мира в начале 2025 года. R1 по многим техническим бенчмаркам незначительно превзошел оригинальную модель 01 от OpenAI.
Открытость DeepSeek в отношении своих исследований показала миру, как языковые модели могут самокорректироваться под давлением оптимизации для достижения правильных ответов.
Одним из ключевых аспектов DeepSeek R1 была возможность видеть процесс мышления модели, что сделало ее особенно привлекательной. (На момент ее выхода другие производители ИИ прятали ход рассуждений своих моделей.) Кроме того, модель была значительно дешевле конкурентов.
Западные AI-лаборатории выдвигали контрнарративы, включая обвинения в том, что DeepSeek мог неправомерно использовать цепочки рассуждений модели 01 от OpenAI. Однако эти заявления не получили широкой поддержки. В том числе, потому, что к самой OpenAI в США есть масса претензий и исков о неправомерном использовании различных данных для обучения их моделей.
OpenAI даже выразила опасения, что DeepSeek, будучи потенциально подконтрольной Коммунистической партии Китая, может быть использована для нанесения вреда, а ее бесплатная доступность угрожает конфиденциальности и безопасности пользователей. (Чего только американцы не придумают, чтобы ограничить конкуренцию в технологиях других стран
При разработке DeepSeek Лян Вэньфэн столкнулся с проблемой доступа к передовым чипам из-за ограничений, введенных правительством США. Несмотря на это, DeepSeek продолжал развиваться благодаря собственным инновациям в области эффективности вычислений.
Сейчас сообщается, что Лян рассматривает возможность привлечения внешних инвестиций для дальнейшего масштабирования и достижения AGI.
В заключение хочу сказать, что история DeepSeek и Ляна Вэньфэна - это история не только о желании Китая стать лидером в области AI и о неожиданном прорыве, который бросил вызов доминированию западных AI-лабораторий. В том числе, а, возможно, "прежде всего", это история о конкретном человеке и его стремлении к исследованию и инновациям.
#ИИистория
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍2
Мы много слышим про влияние ИИ на производительность, но все еще редко видим кейсы его внедрения в реальный бизнес. Особенно такие, где понятен экономический эффект от такого внедрения.
Именно поэтому я и хочу сегодня показать один такой очень простой и понятный кейс:
🎯 Как Ашан ускорил подбор с помощью ИИ
Или история про то, как AISHA (AI Smart Hiring Assistant) интегрировалась в рабочий процесс подбора персонала🚀
Я ранее уже упоминал о нашей собственной ИИ-разработке - Аише. А в конце апреля мы участвовали с ней в конференции Human Recruitment, где Ашан рассказывал о своем опыте его внедрения.
👩💼 В Ашане рекрутеры обрабатывают ~100 000 резюме в год, ведут по 10-15 вакансий одновременно и сталкиваются с постоянной сменой профилей. Раньше на оценку резюме кандидатов уходили долгие часы.
По подсчетам Натальи Хусейиновой, руководителя по подбору персонала АШАН Ритейл Россия, 27% времени рекрутеры тратили на просмотр откликов и холодный поиск кандидатов.
Теперь с AISHA:
⚡️ -90% времени на оценку резюме (4 часа в месяц вместо 40+)
✅ 92% точности
💡 Быстрая реакция на отклики
💰 Экономия бюджета в 2,5 раза
Вот что говорит сама Наталья💬
Ашан уже внедрил Аишу в ATS Skillaz для обработки откликов с разных джоб-сайтов и использует при холодном поиске на hh .ru через расширение для браузера.
Недавно мы еще больше усовершенствовали Аишу: добавили к скорингу развернутое описание оценки кандидата, сделали ее доступной в Казахстане, Узбекистане и Белорусиии. Впереди дообучение модели, расширение функционала, чтобы она становилась ещё полезней🤖
➡️ Подробнее об Аише можно почитать на сайте AISHA.ONE
#ИИкейс
Будущее наступает🚀
Именно поэтому я и хочу сегодня показать один такой очень простой и понятный кейс:
Или история про то, как AISHA (AI Smart Hiring Assistant) интегрировалась в рабочий процесс подбора персонала
Я ранее уже упоминал о нашей собственной ИИ-разработке - Аише. А в конце апреля мы участвовали с ней в конференции Human Recruitment, где Ашан рассказывал о своем опыте его внедрения.
👩💼 В Ашане рекрутеры обрабатывают ~100 000 резюме в год, ведут по 10-15 вакансий одновременно и сталкиваются с постоянной сменой профилей. Раньше на оценку резюме кандидатов уходили долгие часы.
По подсчетам Натальи Хусейиновой, руководителя по подбору персонала АШАН Ритейл Россия, 27% времени рекрутеры тратили на просмотр откликов и холодный поиск кандидатов.
Теперь с AISHA:
Вот что говорит сама Наталья
Отличный инструмент для быстрого поиска нужных специалистов! AISHA не заменяет рекрутера — она освобождает его от рутины, чтобы он работал с самыми релевантными кандидатами
Ашан уже внедрил Аишу в ATS Skillaz для обработки откликов с разных джоб-сайтов и использует при холодном поиске на hh .ru через расширение для браузера.
Недавно мы еще больше усовершенствовали Аишу: добавили к скорингу развернутое описание оценки кандидата, сделали ее доступной в Казахстане, Узбекистане и Белорусиии. Впереди дообучение модели, расширение функционала, чтобы она становилась ещё полезней
#ИИкейс
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍3❤🔥2
Сегодня среда - как маленькая пятница. Поэтому будут только видео.
Этот канал про будущее, которое уже наступает, и все они именно о нем:
🎞 Первое - про домашних роботов, которые работают за нас, пока мы тоже работаем . Источник
🎞 Второе - про неадекватного робота, чтобы напомнить, что они машины, а не милые розовые пони . Источник
🎞 Третье - про ну очень крутой "дайтедва" летающий скутер. Источник
🎞 Четвертое - видео-клип, сделанный полностью с помощью AI. Как пример того, что сейчас может сделать даже непрофессионал с помощью AI-инструментов, было бы желание. Источник
🎞 И, наконец, пятое - очень трогательный AI-мультфильм. Пример того, что может сделать профессионал при помощи AI-инструментов. В одиночку и за крохотный, по сравнению с традиционным продакшеном, бюджет. Источник
Рекомендую пройти по ссылкам и почитать источники - там много интересного контекста и бэкстэйджа.
Всем хороших праздников!
#ИИпятница
Будущее наступает🚀
Этот канал про будущее, которое уже наступает, и все они именно о нем:
Рекомендую пройти по ссылкам и почитать источники - там много интересного контекста и бэкстэйджа.
Всем хороших праздников!
#ИИпятница
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1🙏1
Вот краткое и понятное руководство по выбору моделей ChatGPT в зависимости от задач, с примерами запросов для каждой группы сценариев. Сделано на основе обновленной документации OpenAI.
«Составь краткое резюме встречи с основными выводами.»
«Напиши письмо с благодарностью после собеседования.»
«Проверь грамматику и стиль моего отчета.»
«Предложи идеи для запуска нового продукта, можешь использовать загруженные изображения.»
«Напиши увлекательный пост для LinkedIn о новых трендах в ИИ.»
«Составь описание нового продукта для страницы на сайте.»
«Разработай письмо с извинениями для клиента в дружелюбном тоне.»
«Извлеки ключевые данные из этого CSV-файла.»
«Кратко подведи итоги научной статьи.»
«Исправь ошибку в этом фрагменте кода Python.»
«Реши сложное математическое уравнение и объясни шаги.»
«Составь SQL-запросы для извлечения данных из базы.»
«Объясни научную концепцию простыми словами.»
«Разработай анализ рисков для выхода на новый рынок.»
«Составь стратегический план развития продукта на основе конкурентных данных.»
«Проанализируй данные из CSV и спрогнозируй показатели на следующий квартал.»
🧾 6. Сложные рассуждения и аналитические задачи
«Составь подробный отчет по анализу рисков для внедрения новых правил по защите данных в ЕС.»
«Создай многостраничное исследование по новым технологиям.»
«Разработай алгоритм прогнозирования финансовых показателей на основе теоретических моделей.»
Выбор модели зависит от конкретной задачи. Для повседневных и креативных задач лучше использовать GPT-4o или GPT-4.5, тогда как для технических и аналитических задач подойдут модели серии o4 и o3.
#ИИинструменты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2🔥2👏1
Если вы или ваши близкие сталкивались с трудностями в постановке диагноза, особенно при редких симптомах, возможно вам стоит попробовать DxGPT.
🔹 Разработан инженером Microsoft Серхио Исла после того, как его сын почти год ждал правильного диагноза
🔹 Основан на GPT-4, обучен на медицинские картах и клинические данных пациентов
🔹 Уже используется врачами в Испании и доступен онлайн бесплатно для всех
🔹 Помогает сократить путь к диагнозу с месяцев до минут
🔹 Не хранит личные данные
📊 У сервиса более 500 000 пользователей. Инструмент интегрирован в систему здравоохранения Мадрида и реально помогает врачам находить диагнозы, когда другие методы не срабатывают.
⚕️ Для кого может быть полезно:
Я протестировал: сервис работает из РФ без VPN, принимает текст и выдает ответы на русском языке. А если открывать его в Яндекс Браузере, то и интерфейс увидите на русском. На вход можно подавать описание симптомов или результаты анализов.
Мое впечатление - возможно, что это один из самых полезных ИИ-сервисов для личного использования. Сэкономит много нервов и времени на посещение врачей. Я даже сохранил его ярлык на смартфон, что делаю только с наиболее важными или часто используемыми ИИ. И, конечно, было бы круто увидеть подобный сервис в госуслугах.
👉 Попробовать можно здесь: dxGPT
Главное - помните, что это только дополнительный инструмент, окончательный диагноз может поставить только врач, и не занимайтесь самолечением
#ИИинструменты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥1