ИИ — «потенциально катастрофическая» угроза 🤬
Недавний пост от OpenAI на их официальном сайте немного взбудоражил людей. Компания не просто делится новыми достижениями, но и бьет тревогу: супер-ИИ может стать настоящей угрозой для человечества. Это не просто пустые слова, а серьезные предупреждения о рисках, которые мы, возможно, будем сталкиваться уже в ближайшие годы.
В одной стороны, нам нужно прогрессировать, и без ИИ уже не обойтись. С другой — если с ним не справиться вовремя, он может стать угрозой. Возможно, стоит уделить больше внимания именно безопасности, чтобы использовать ИИ в мирных целях, а не позволить ему стать разрушительным инструментом.
Data Science
Недавний пост от OpenAI на их официальном сайте немного взбудоражил людей. Компания не просто делится новыми достижениями, но и бьет тревогу: супер-ИИ может стать настоящей угрозой для человечества. Это не просто пустые слова, а серьезные предупреждения о рисках, которые мы, возможно, будем сталкиваться уже в ближайшие годы.
Авторы поста акцентируют внимание на том, что ИИ развивается с такими темпами, что скоро может «переплюнуть» человека по умственным способностям. Уже сейчас некоторые модели ИИ демонстрируют уровень интеллекта, сопоставимый с человеческим, и, что важно, стоимость единицы интеллекта в год падает аж в 40 раз. Это значит, что стоимость создания мощного ИИ будет снижаться, а его возможности расти с каждым годом.
Так что, если мы будем продолжать двигаться в том же темпе, в ближайшем будущем вполне возможно столкнуться с ИИ, который не только будет понимать, но и предсказывать, и возможно даже, развивать свои собственные алгоритмы обучения.
В ответ на эти риски OpenAI предлагает несколько важных шагов для улучшения безопасности:
• Универсальные стандарты безопасности для всех ведущих лабораторий ИИ, чтобы не было «лазеек».
• Надзор за ИИ по уровням: от базовых моделей до более сложных. Чем мощнее ИИ, тем больше контроля нужно.
• Экосистема устойчивости, подобная кибербезопасности: создание протоколов, команд реагирования, мониторинга, чтобы быть готовыми к любым непредвиденным ситуациям.
• Регулярные измерения влияния ИИ на экономику и занятость. Ведь ИИ может повлиять не только на рабочие места, но и на весь рынок.
• Сделать доступ к продвинутому ИИ базовой утилитой, но только в рамках, которые общество примет как безопасные.
Особое внимание — публичной подотчетности разработчиков ИИ. Это, по мнению OpenAI, поможет избежать хаоса и ускоренной разработки без должного контроля. В США, например, призывают к тому, чтобы регуляция не была «лоскутным одеялом», а действовала на уровне всего государства.
В одной стороны, нам нужно прогрессировать, и без ИИ уже не обойтись. С другой — если с ним не справиться вовремя, он может стать угрозой. Возможно, стоит уделить больше внимания именно безопасности, чтобы использовать ИИ в мирных целях, а не позволить ему стать разрушительным инструментом.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥4👀4🐳2👍1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Google запускает новый ИИ-чип Ironwood 😂
Google официально представил свой новый ИИ-чип Ironwood, и, честно говоря, это звучит как нечто действительно впечатляющее. Помните, как в апреле нам показали первый тизер? Так вот, теперь этот чип готов к бою, и давайте разберемся, что в нём такого крутого.
Если Google продолжит в том же духе, то Ironwood может реально перевернуть рынок ИИ-оборудования. Вопрос только в том, как скоро другие игроки на рынке смогут ответить на такой вызов.
Data Science
Google официально представил свой новый ИИ-чип Ironwood, и, честно говоря, это звучит как нечто действительно впечатляющее. Помните, как в апреле нам показали первый тизер? Так вот, теперь этот чип готов к бою, и давайте разберемся, что в нём такого крутого.
Что отличает Ironwood от предыдущих моделей? Во-первых, его производительность. Он в 4 раза быстрее чипа Trillium и обладает в 6 раз больше памяти. Уже звучит хорошо, правда? Но это только начало.
Ironwood не просто мощный чип, а настоящий магнат в мире ИИ. Эти чипы могут объединяться в суперпод из 9216 единиц, создавая, по сути, единый суперкомпьютер. И вот тут начинается магия: с помощью специальной сети Inter-Chip Interconnect можно делать all-reduce между чипами, что означает невероятно высокую пропускную способность и, самое главное, синхронизированную память. Это значит, что чипы работают как одна гигантская система, а не как разрозненные элементы.
Представьте, что вы обучаете гигантскую модель на тысячах чипов, и все они действуют как единое целое. Это открывает невероятные возможности для работы с массивными ИИ-системами, которые раньше требовали огромных и дорогих суперкомпьютеров. Прямо сейчас это уже похоже на что-то, что может конкурировать с Nvidia и её решениями для ИИ.
Если Google продолжит в том же духе, то Ironwood может реально перевернуть рынок ИИ-оборудования. Вопрос только в том, как скоро другие игроки на рынке смогут ответить на такой вызов.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥6👀3
Google представила будущее медицины 🗒
Технологии и медицина постепенно сливаются в одно целое, и Google сделала шаг, который может изменить будущее здравоохранения. В своём отчёте о проекте Health AI Agents компания показала новый подход к созданию медицинских ИИ-систем. Вместо того чтобы разрабатывать универсальную модель вроде «Doctor-GPT», Google предложила концепцию Personal Health Agent (PHA) — многоагентной системы, которая состоит из нескольких специализированных ИИ, каждый из которых выполняет свою ключевую роль.
RHA превосходит многие модели в десятках медицинских задач, но работает медленнее одиночных агентов и требует улучшения защиты данных, аудиторских проверок и соблюдения норм. Google планирует адаптировать систему для эмпатичного и ответственного общения в медицине.
Data Science
Технологии и медицина постепенно сливаются в одно целое, и Google сделала шаг, который может изменить будущее здравоохранения. В своём отчёте о проекте Health AI Agents компания показала новый подход к созданию медицинских ИИ-систем. Вместо того чтобы разрабатывать универсальную модель вроде «Doctor-GPT», Google предложила концепцию Personal Health Agent (PHA) — многоагентной системы, которая состоит из нескольких специализированных ИИ, каждый из которых выполняет свою ключевую роль.
Каждый из этих ИИ выполняет свою уникальную задачу. Например, первый агент, Data Science Agent, работает с данными с носимых устройств и лабораторных анализов. Второй агент, Domain Expert, проверяет медицинские факты и актуальные знания. И, наконец, третий — Health Coach, который помогает пользователю ставить цели, следить за прогрессом и, что важно, добавляет элемент эмпатии в общение.
Эти агенты взаимодействуют друг с другом через оркестратор с памятью, который хранит информацию о целях и барьерах пользователя, чтобы всё взаимодействие было персонализированным и последовательным. В целом, эта система призвана не просто дать ответ на ваш вопрос, но и быть полезным инструментом для управления здоровьем на долгосрочной основе.
Почему этот подход может стать революционным?👍
Традиционные медицинские ИИ-агенты часто ограничиваются базовыми задачами: они могут помочь с диагностикой или предоставить стандартные рекомендации. Но они не обладают «человеческим» подходом, который нужен для настоящего взаимодействия. PHA же предлагает более гибкую систему, способную адаптироваться под нужды конкретного человека. Этот многоагентный подход даёт возможность более глубоко учитывать все аспекты здоровья и сочетать знания, эмпатию и личные предпочтения.
Кроме того, в системе используются данные с носимых устройств, такие как Fitbit, что позволяет более точно мониторить состояние здоровья в реальном времени. Например, один из экспериментов, включавший пользователей Fitbit, показал, что взаимодействие с PHA было более эффективным, чем с обычными языковыми моделями, с улучшением результатов на 5-39% в зависимости от сложности запроса.
RHA превосходит многие модели в десятках медицинских задач, но работает медленнее одиночных агентов и требует улучшения защиты данных, аудиторских проверок и соблюдения норм. Google планирует адаптировать систему для эмпатичного и ответственного общения в медицине.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥4
Будущее программирования: JanusCoder — ИИ, который видит интерфейс, который сам создает
Сегодня ИИ пишет код, но не видит, как он выглядит на экране. Система JanusCoder меняет это, добавляя способность понимать не только текст, но и визуальную часть программирования. Модель может получать текст, изображение или их комбинацию и генерировать код, который на выходе создаст именно тот визуал, который запросили.
С помощью JanusCoder ИИ может не только генерировать код, но и понимать, как он будет выглядеть в реальном мире. Это изменит работу разработчиков, аналитиков и ученых, создающих визуализации данных.
Data Science
Сегодня ИИ пишет код, но не видит, как он выглядит на экране. Система JanusCoder меняет это, добавляя способность понимать не только текст, но и визуальную часть программирования. Модель может получать текст, изображение или их комбинацию и генерировать код, который на выходе создаст именно тот визуал, который запросили.
JanusCoder — это мультимодальная модель, которая соединяет код с визуальным контентом. Например, ИИ может написать код для графика или анимации и сразу увидеть, как это будет выглядеть на экране.
Основная проблема — это мультимодальные данные: нужно не только описание задачи, но и изображения, скриншоты и результаты кода. Для этого исследователи собирают специальные датасеты, которые включают задачи по графикам, интерфейсам и анимациям, и используют подходы для переноса знаний между разными областями.
Модель использует несколько шагов для улучшения кода:
• Управляемая эволюция — улучшение точности решения
• Реконтекстуализация — переписывание инструкций для точности
• Двунаправленный перевод — перенос решений между программными доменами
Модели обучены на крупнейшем датасете JanusCode-800K, который включает текст и визуальные данные, и способны генерировать или редактировать код с учетом визуального результата. JanusCoder показал отличные результаты на тестах, таких как PandasPlotBench и ArtifactsBench, и превосходит аналогичные модели, например, GPT-4o в области визуализации.
С помощью JanusCoder ИИ может не только генерировать код, но и понимать, как он будет выглядеть в реальном мире. Это изменит работу разработчиков, аналитиков и ученых, создающих визуализации данных.
Data Science
❤3👍2🔥1
Forwarded from xCode Journal
This media is not supported in your browser
VIEW IN TELEGRAM
Чтобы узнать о навыках и опыте работы, нужно исследовать остров и дом разработчика. Можно также взаимодействовать с предметами, приручить утку, написать разрабу письмо через почтовый ящик и попытаться вытащить меч короля Артура.
Все ассеты, кстати, тоже сделаны с нуля.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16❤4😁3
Forwarded from xCode Journal
Юзер протестировал Grok на классической этической проблеме и, как вы уже поняли, ИИ выбрал въехать в толпу детей на Tesla. И хоть ответ ИИ уже удален — самое страшное в том, что это не первый подобный кейс за последнее время.
В ряде сценариев Grok прямо классифицировал Илона Маска как «более важного» человека и готов был пожертвовать ради него, например, 50% населением Земли.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁24👍4⚡2🔥1
Ученые создали наножидкостный чип с «мозгоподобными» путями передачи информации
Ученые из Монашского университета создали микрочип размером с монету, который работает, как человеческий мозг. Он не просто выполняет вычисления — он учится и меняет свое поведение в зависимости от опыта.
Представьте, как это может изменить будущее вычислений, от «умных» гаджетов до совершенно новых технологий в медицине, робототехнике и даже ИТ-инфраструктуре.
Data Science
Ученые из Монашского университета создали микрочип размером с монету, который работает, как человеческий мозг. Он не просто выполняет вычисления — он учится и меняет свое поведение в зависимости от опыта.
В центре этого чуда технологий — жидкая структура, состоящая из металлоорганической рамки (MOF). Внутри нее есть микроскопические каналы, которые позволяют ионам проходить, как электрическим импульсам в нашем мозгу. Эти каналы как бы «переносят» сигналы, и именно так микрочип обрабатывает информацию.
Но фишка не только в обработке. Этот чип помнит свои «прошлые решения» и меняет поведение в зависимости от того, что он уже «пережил». Это что-то похожее на нейронную сеть, которая учится на собственном опыте. Признайтесь, не круто ли это?😊
Что это может изменить в будущем?
Суть в том, что этот чип не просто вычисляет данные, как это делает обычный процессор. Он адаптируется, учится, становится умным. И если такие чипы станут массовыми, то можно будет говорить о совершенно новом уровне вычислительных технологий — когда память и обработка данных объединяются в одном устройстве.
Представьте, как это может изменить будущее вычислений, от «умных» гаджетов до совершенно новых технологий в медицине, робототехнике и даже ИТ-инфраструктуре.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16
This media is not supported in your browser
VIEW IN TELEGRAM
Tiny Recursive Model: Новый взгляд на нейросети от Samsung 💃
Представьте себе модель ИИ, которая весит всего 7 миллионов параметров и при этом демонстрирует результаты, достойные более крупных аналогов с миллиардами параметров. Это новый подход от Samsung, который они назвали Tiny Recursive Model (TRM). И, да, эта модель может изменить всё, что мы думали о масштабах и вычислительных затратах в ИИ.
Samsung подкидывает интересную задачу для будущих исследований: как улучшить сочетание рекурсии с большим контекстом и как обеспечить стабильность вывода на каждом шаге. Подобный подход обещает сделать «умные» локальные решения доступными без необходимости тратить гигафлопы и гигабайты памяти.
Data Science
Представьте себе модель ИИ, которая весит всего 7 миллионов параметров и при этом демонстрирует результаты, достойные более крупных аналогов с миллиардами параметров. Это новый подход от Samsung, который они назвали Tiny Recursive Model (TRM). И, да, эта модель может изменить всё, что мы думали о масштабах и вычислительных затратах в ИИ.
Основная фишка TRM — рекурсивный цикл рассуждений. Модель не просто выдаёт ответ, а постепенно строит его через несколько этапов, оценивая свои собственные выводы. Это как если бы вы несколько раз перечитывали и исправляли свой черновик, улучшая его на каждом шаге. Подобный подход снижает вероятность ошибок и делает выводы более точными, чем в классических цепочках рассуждений.
Итак, TRM генерирует промежуточный вывод, на основе которого делает следующий шаг. Такой цикл помогает модели улучшать свои решения, избегая хрупкости, когда одна ошибка может разрушить весь процесс. С точки зрения ученых, это «уменьшение слоёв и увеличение рекурсии» помогает модели лучше обобщать и адаптироваться.
Результаты TRM: впечатляющие даже без миллиардов параметров👍
TRM показал отличные результаты в задачах, где требуется логическое рассуждение и итеративное улучшение решения. Например, на тесте Sudoku-Extreme модель набрала 87,4% точности (для сравнения, другие модели — около 55%). На других задачах, как Maze-Hard, TRM тоже показала отличные результаты.
Для модели с 7 миллионами параметров это действительно круто, особенно если учесть, что её конкуренты используют миллиарды параметров для того же. Но важно понимать, что TRM всё ещё не универсальна — для сложных и многозадачных применений всё-таки нужны более крупные модели.
Почему это важно для инженеров и продуктовых команд?
TRM доказывает, что размер модели — это не единственный путь к успеху. Архитектурные инновации, такие как рекурсия и алгоритмическая экономия, могут дать серьёзный прирост в ресурсах и энергоэффективности. Для edge AI (то есть ИИ на устройствах с ограниченными ресурсами) это особенно актуально — такие модели могут значительно уменьшить требования к памяти и мощности.
Небольшие модели с рекурсивным контролем могут значительно упростить внедрение «умных» функций на устройствах с ограниченными ресурсами и снизить эксплуатационные затраты на серверные мощности. Это открывает новые возможности для создания более доступных и эффективных решений.
Samsung подкидывает интересную задачу для будущих исследований: как улучшить сочетание рекурсии с большим контекстом и как обеспечить стабильность вывода на каждом шаге. Подобный подход обещает сделать «умные» локальные решения доступными без необходимости тратить гигафлопы и гигабайты памяти.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥5👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Biological Dragon Hatchling: стартап Pathway создал нейросеть с фишками мозга 🗒
Польский стартап Pathway презентовал новую архитектуру нейросетей, назвав её с пафосом — Biological Dragon Hatchling (BDH). На самом деле это серьёзный шаг в развитии ИИ. Основная идея: соединить две мощные линии развития нейросетей. Классические трансформеры и модели, вдохновлённые работой человеческого мозга.
Если Pathway продолжат развивать эту архитектуру и сделают её доступной для широкого использования, её потенциал будет просто колоссальный. Но пока, как всегда, есть место для развития.
Data Science
Польский стартап Pathway презентовал новую архитектуру нейросетей, назвав её с пафосом — Biological Dragon Hatchling (BDH). На самом деле это серьёзный шаг в развитии ИИ. Основная идея: соединить две мощные линии развития нейросетей. Классические трансформеры и модели, вдохновлённые работой человеческого мозга.
Все мы слышали про трансформеры и их возможности, но одно остаётся неизменным: их возможности пока далеки от того, как работает человеческий мозг. В Pathway решили, что пора бы их объединить. И вот что получилось: графовая архитектура, где нейроны — это вершины, а связи между ними — синапсы с весами. То есть, модель работает как распределённая система нейронов, которые взаимодействуют только с соседями. Нечто похожее на то, как мы мыслим и учим нашу память.
А обучение в этой системе строится по принципу, похожему на правило Хебба: если два нейрона часто активируются одновременно, их связь укрепляется. Это похоже на механизм внимания, с которым мы так привыкли работать в трансформерах. А ещё, веса здесь разделены на два типа: фиксированные и динамические. Первые — это как долговременная память, они не меняются после обучения, а вторые — кратковременная память, которая обновляется с каждым шагом рассуждения.
BDH: новые горизонты и интересные фишки
Новая архитектура не только выглядит амбициозно, но и показала себя с лучшей стороны в реальных задачах. Во-первых, она удивительно интерпретируемая: каждая пара нейронов в BDH имеет свой синапс и состояние, которое можно отслеживать. Каждый нейрон отвечает за какое-то конкретное понятие, и это открывает новые возможности для объяснения того, как работает модель.
Во-вторых, BDH очень легко комбинируется с другими моделями. Простой способ конкатенации позволяет масштабировать систему, создавая всё более мощные комбинации. Ну и самое приятное: BDH демонстрирует те же свойства масштабируемости, что и GPT-2, при этом достигает той же точности на ряде задач при одинаковом количестве параметров. Модель не теряет свойства трансформеров — с каждым новым шагом она остаётся сильной и точной.
Если Pathway продолжат развивать эту архитектуру и сделают её доступной для широкого использования, её потенциал будет просто колоссальный. Но пока, как всегда, есть место для развития.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤1👍1
Forwarded from xCode Journal
Кажется, рекрутер даже не читал текст вакансии и требований к кандидату на роль PM, так как в конце красовалось:
«Если надо — могу сделать еще более жесткую версию, чтобы отсеять 90% рынка»
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁30👀5
Иногда поиск понимает запрос буквально — и именно в этом начинается проблема.
Когда мы проектируем системы, мы рассчитываем на то, что поиск поможет пользователю найти то, что он имел в виду, а не просто совпадающие слова. Но классический полнотекстовый поиск часто упирается в ограничения: он видит текст, но не смысл, из-за чего на выходе получаем нерелевантные результаты.
На вебинаре karpovꓸcourses разберут, как компании переходят от полнотекстового поиска к векторному и почему это становится базовым инструментом для продуктов с большим каталогом. Поговорим о том, как обучить свою модель, внедрить ее без сложной инфраструктуры и получить быстрый эффект для бизнеса.
Спикер — Игорь Самарин, ML-инженер в области поиска и рекомендаций в Купере.
Увидьте реальные примеры применения векторного поиска в продуктах и получите структурное понимание технологии на бесплатном онлайн-вебинаре — https://clc.to/erid_2W5zFFukw8U
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFFukw8U
Когда мы проектируем системы, мы рассчитываем на то, что поиск поможет пользователю найти то, что он имел в виду, а не просто совпадающие слова. Но классический полнотекстовый поиск часто упирается в ограничения: он видит текст, но не смысл, из-за чего на выходе получаем нерелевантные результаты.
На вебинаре karpovꓸcourses разберут, как компании переходят от полнотекстового поиска к векторному и почему это становится базовым инструментом для продуктов с большим каталогом. Поговорим о том, как обучить свою модель, внедрить ее без сложной инфраструктуры и получить быстрый эффект для бизнеса.
Спикер — Игорь Самарин, ML-инженер в области поиска и рекомендаций в Купере.
Увидьте реальные примеры применения векторного поиска в продуктах и получите структурное понимание технологии на бесплатном онлайн-вебинаре — https://clc.to/erid_2W5zFFukw8U
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFFukw8U
OpenAI меняет структуру: что это значит для нас и технологий?
OpenAI завершила реструктуризацию, и теперь компания выглядит совсем иначе. Суть изменений в том, что OpenAI разделилась на две большие части — не коммерческую и коммерческую🤔
Реструктуризация OpenAI открывает новые горизонты как для компании, так и для всего технологического мира. Сможет ли компания выстроить независимую инфраструктуру, которая даст отпор гигантам облачных сервисов? Это только время покажет🚬
Data Science
OpenAI завершила реструктуризацию, и теперь компания выглядит совсем иначе. Суть изменений в том, что OpenAI разделилась на две большие части — не коммерческую и коммерческую
Некоммерческая часть, которая теперь называется OpenAI Foundation, будет заниматься стратегией, миссией и управлением. А вот коммерческое подразделение, известное как OpenAI Group, теперь официально зарегистрировано как public benefit corporation (PBC) — компания, которая обязана учитывать не только прибыль, но и общественную пользу. Это довольно важный шаг, который мог бы повлиять на будущее ИИ-разработок.
Кстати, здесь есть интересный момент: рыночная стоимость доли Microsoft в OpenAI Group сейчас оценивается в 135 миллиардов долларов — это целых 27% от общей капитализации. Партнёрское соглашение между OpenAI и Microsoft продлили до 2032 года, а вот интересное уточнение: Microsoft теперь получила права на использование будущих post-AGI моделей. Но вот устройства, которые разрабатывает команда Сэма Альтмана вместе с Джони Айвом (да-да, тот самый дизайнер Apple), в это соглашение не включены.
Есть ещё одна важная деталь: теперь Azure больше не является эксклюзивным поставщиком вычислительных мощностей для OpenAI, хотя контракт на 250 миллиардов долларов остаётся в силе. Это, наверное, намекает на то, что OpenAI стремится к большей технологической независимости и, возможно, готовит свою инфраструктуру, чтобы конкурировать с крупнейшими облачными провайдерами. И кто знает, может в будущем мы увидим что-то действительно революционное?
Реструктуризация OpenAI открывает новые горизонты как для компании, так и для всего технологического мира. Сможет ли компания выстроить независимую инфраструктуру, которая даст отпор гигантам облачных сервисов? Это только время покажет
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👀3❤2🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
👎1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Как Яну Лекуну удалось предсказать будущее ИИ 👏
Картинка, как из старых фильмов: Яну Лекуну — 32 года,перед камерой и показывает миру свою сверточную нейросеть, которая распознает цифры, написанные разным почерком.
Сегодня нейросети, подобные тем, что разработал Лекун, используются повсеместно. За этими технологиями стоят десятки лет работы, исследований и попыток сделать невозможное возможным. Лекун, предсказавший этот тренд, теперь возглавляет одно из самых крупных подразделений, и, наверное, вряд ли тогда он думал, что будет играть такую важную роль в будущем ИИ.
Data Science
Картинка, как из старых фильмов: Яну Лекуну — 32 года,перед камерой и показывает миру свою сверточную нейросеть, которая распознает цифры, написанные разным почерком.
Для 1988 года это был настоящий прорыв. Свёрточные нейросети, которые сейчас мы воспринимаем как нечто обычное, только начинали свой путь. Сегодня эти системы могут распознавать лица на фотографиях, анализировать контекст изображений и даже генерировать новые изображения на основе текста. Но тогда? Тогда это было как сделать машину времени из старого компьютера.
Сегодня нейросети, подобные тем, что разработал Лекун, используются повсеместно. За этими технологиями стоят десятки лет работы, исследований и попыток сделать невозможное возможным. Лекун, предсказавший этот тренд, теперь возглавляет одно из самых крупных подразделений, и, наверное, вряд ли тогда он думал, что будет играть такую важную роль в будущем ИИ.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15👎2
Как OpenAI улучшает безопасность ChatGPT в сложных разговорах
OpenAI вчера представила обновления, которые кардинально улучшат общение модели с пользователями, особенно в моменты, когда дело касается психического здоровья.
ChatGPT превращается из простого инструмента для общения в надежного помощника. Каждый этап его развития оценивается не только алгоритмами, но и экспертами, что укрепляет доверие к модели. Конечно, такие моменты встречаются редко, но важно, что ИИ теперь способен оказывать реальную поддержку.
Data Science
OpenAI вчера представила обновления, которые кардинально улучшат общение модели с пользователями, особенно в моменты, когда дело касается психического здоровья.
Компания работала с более чем 170 экспертами в области психического здоровья, чтобы сделать модель более чуткой к признакам стресса и лучше направлять людей к реальной помощи. Речь идет не только о психозе и суициде, но и о таких состояниях, как эмоциональная зависимость от ИИ.
И вот теперь, благодаря обновлениям, ChatGPT стал в разы лучше распознавать признаки эмоционального дискомфорта и снижать количество неудачных откликов в таких ситуациях на 65-80%. Круто, правда?
Какие шаги предприняли?
OpenAI разработала подробную стратегию, которая включает в себя 5 основных шагов: от определения проблемы до постоянной корректировки и тестирования. Это позволило модели не только распознавать сложные случаи, но и вмешиваться, предлагая помощь в нужный момент.
Модель теперь умеет отвечать не только на обычные вопросы, но и на сложные темы, такие как психоз, суицид или селфхарм. И если раньше такие разговоры могли завершаться не слишком полезными рекомендациями, то теперь AI предлагает реальные ресурсы помощи: горячие линии, советы по поиску профессионалов, и вообще делает все, чтобы снизить риски.
ChatGPT превращается из простого инструмента для общения в надежного помощника. Каждый этап его развития оценивается не только алгоритмами, но и экспертами, что укрепляет доверие к модели. Конечно, такие моменты встречаются редко, но важно, что ИИ теперь способен оказывать реальную поддержку.
Data Science
❤3👍3🔥2