Data Secrets
А вы тоже часто видите новости про «в ходе опроса айтишников выяснилось, что каждый третий…», но сами никогда в таких опросах не участвовали? 😑 Если да, этот пост для вас. Наши друзья из Центра научной коммуникации ИТМО проводят анализ профессионального…
Результаты исследования ML-сообщества от VK и ИТМО
Помните, мы просили вас поучаствовать в исследовании о состоянии индустрии, лидерах рынка и в целом ML-карьере в России? Так вот теперь мы делимся с вами его результатами!
Откуда ML-щики (то есть вы) берут информацию и какие источники любят? Как выбирают компанию для работы? Кем себя видят в будущем?
Все самые интересные и неожиданные результаты – в карточках. Спойлер:мы попали в топ-4 самых любимых ML-каналов 😊
Помните, мы просили вас поучаствовать в исследовании о состоянии индустрии, лидерах рынка и в целом ML-карьере в России? Так вот теперь мы делимся с вами его результатами!
Откуда ML-щики (то есть вы) берут информацию и какие источники любят? Как выбирают компанию для работы? Кем себя видят в будущем?
Все самые интересные и неожиданные результаты – в карточках. Спойлер:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤52🔥22🤯7👍4👌2🍾1
Please open Telegram to view this post
VIEW IN TELEGRAM
50🔥72👍7❤6🤪1
У Google три новые экспериментальные модели!
В компании представили:
➡️ новую уменьшенную Gemini 1.5 Flash-8B
➡️ более мощную Gemini 1.5 Pro
➡️ и улучшенную Gemini 1.5 Flash
Все модели уже появились на Арене. Новый Gemini-1.5-Flash совершил огромный скачок с 23-го на 6-е место! Gemini-1.5-Pro тоже не отстает и демонстрирует мощные улучшения в коде и математике. А новая мини-модель Gemini-1.5 Flash- 8b превосходит gemma-2-9b и догоняет llama-3-70b.
В компании представили:
Все модели уже появились на Арене. Новый Gemini-1.5-Flash совершил огромный скачок с 23-го на 6-е место! Gemini-1.5-Pro тоже не отстает и демонстрирует мощные улучшения в коде и математике. А новая мини-модель Gemini-1.5 Flash- 8b превосходит gemma-2-9b и догоняет llama-3-70b.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24❤12
This media is not supported in your browser
VIEW IN TELEGRAM
Почувствовали энергию AGI, исходящую от этого видео? 🤣
А серьезно, почему модели настолько трудно просто переписать слово? Ответ: все из-за токенизации. По этой же причине, например, GPT не может разобрать, сколько букв r в слове strawberry и очень плохо считает.
Полное объяснения того, почему так происходит и какие еще проблемы порождает токенизация можно найти в этом нашем посте.
А серьезно, почему модели настолько трудно просто переписать слово? Ответ: все из-за токенизации. По этой же причине, например, GPT не может разобрать, сколько букв r в слове strawberry и очень плохо считает.
Полное объяснения того, почему так происходит и какие еще проблемы порождает токенизация можно найти в этом нашем посте.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁63🔥12
Курс лекций о фундаментальных моделях от канадского университета Waterloo ☺️
В курсе подробно разбираются такие базовые модели, как CNN и RNN. Также вы найдете все о трансформерах: обучение, настройка, и даже разбор например BERT’а и ELECTRA.
Кстати, курс относительно свежий, поэтому авторы рассказывают также о больших языковых и мультимодальных моделях: предварительная обработка данных, файнтюнинг, оптимизация, обучение и многое другое можно найти по ссылке.
В курсе подробно разбираются такие базовые модели, как CNN и RNN. Также вы найдете все о трансформерах: обучение, настройка, и даже разбор например BERT’а и ELECTRA.
Кстати, курс относительно свежий, поэтому авторы рассказывают также о больших языковых и мультимодальных моделях: предварительная обработка данных, файнтюнинг, оптимизация, обучение и многое другое можно найти по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥55👍14❤8
Please open Telegram to view this post
VIEW IN TELEGRAM
54👍66🔥25❤14🤯3
Сколько параметров в GPT-4o mini?
Конечно, сама компания в последнее время не раскрывает ни деталей реализации, ни даже количества параметров своих моделей. Но бесследно разработка все равно не проходит, поэтому на Реддит погадали на фактах и... получилось примерно 8В. Вот почему:
▪️ Из утечки препринтов Microsoft известно, что GPT 3.5 Turbo – это 20B модель (см.скрин). В OpenAI заявляли, что GPT-4o mini стоит на 60% меньше, чем предшественник. Несложная математика: 20-60% = 8B
▪️ Microsoft имеет все доступы к моделям OpenAI и, вероятно, осведомлены об архитектурах. Они также пытаются приблизить свои модели к производительности OpenAI, используя, скорее всего, те же подходы. Так что по таким релизам, как Phi 3.5, можно отдаленно судить об архитектурах OpenAI.
▪️ Ужа давно ходили слухи, что GPT-4 имела 16 экспертов (это MoE). Учитывая, что новая Phi 3.5 MoE от Microsoft – это тоже 16 экспертов, и принимая во внимание пункт 2, можно предположить, что GPT-4o mini – это тоже 16 экспертов по примерно 4В параметров. Получается как раз 8В активных.
Кстати, новая архитектура тоже не исключена. Возможно, в OpenAI используют что-то вроде hybrid-mamba 2.
Конечно, сама компания в последнее время не раскрывает ни деталей реализации, ни даже количества параметров своих моделей. Но бесследно разработка все равно не проходит, поэтому на Реддит погадали на фактах и... получилось примерно 8В. Вот почему:
Кстати, новая архитектура тоже не исключена. Возможно, в OpenAI используют что-то вроде hybrid-mamba 2.
Please open Telegram to view this post
VIEW IN TELEGRAM
52👍34🔥10❤7
Orion: новая загадочная мега-модель от OpenAI
The Information сообщает, что инсайдеры рассказывают о модели, которая должна стать новой флагманской LLM для OpenAI. Да, по сути речь о GPT-5, и оказывается, что разрабатывается она под кодовым названием Orion.
Но зачем же тогда Strawberry? Ведь именно она продвигалась как модель с якобы супер-мощным ризонингом, скиллами в математике и технических вопросах. Ответ: оказывается, Strawberry в перспективе будет некой утилитой. Объясняем👇
Помните ту самую картинку с китом, иллюстрирующим размеры GPT-5, с весенней конференции Microsoft? А вы задумывались, откуда OpenAI будет брать данные для обучения такого гиганта, если даже для GPT-4 им уже потребовались не только тексты, но и парсинг ютуба? Кажется, тут выход один: синтетика.
При этом синтетика должна быть чистая и без галлюцинаций. Именно для такой генерации и будет использоваться Strawberry. Кстати, сначала планируют выпустить Strawberry поменьше (землянику другими словами).
Ожидается, что две эти модели вместе уведут LLM на новый уровень и в разы бустанут прибыль OpenAI. На фоне этого, кстати, компания открывает новый раунд поиска инвесторов и рассчитывает на оценку в $100+ млрд.
Один вопрос: ну когда уже?🥺
The Information сообщает, что инсайдеры рассказывают о модели, которая должна стать новой флагманской LLM для OpenAI. Да, по сути речь о GPT-5, и оказывается, что разрабатывается она под кодовым названием Orion.
Но зачем же тогда Strawberry? Ведь именно она продвигалась как модель с якобы супер-мощным ризонингом, скиллами в математике и технических вопросах. Ответ: оказывается, Strawberry в перспективе будет некой утилитой. Объясняем
Помните ту самую картинку с китом, иллюстрирующим размеры GPT-5, с весенней конференции Microsoft? А вы задумывались, откуда OpenAI будет брать данные для обучения такого гиганта, если даже для GPT-4 им уже потребовались не только тексты, но и парсинг ютуба? Кажется, тут выход один: синтетика.
При этом синтетика должна быть чистая и без галлюцинаций. Именно для такой генерации и будет использоваться Strawberry. Кстати, сначала планируют выпустить Strawberry поменьше (землянику другими словами).
Ожидается, что две эти модели вместе уведут LLM на новый уровень и в разы бустанут прибыль OpenAI. На фоне этого, кстати, компания открывает новый раунд поиска инвесторов и рассчитывает на оценку в $100+ млрд.
Один вопрос: ну когда уже?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍68🔥24❤9🌭2
Please open Telegram to view this post
VIEW IN TELEGRAM
104😁142 42🐳10❤2
На LMSYS Арену завезли контроль стиля, чтобы модели не могли "заманивать" юзеров красивым форматированием текста и длиной ответов
Гипотеза состоит в том, что пользователь может отдать свой голос за ту или иную модель, ориентируясь не только на содержание ответа, но и то, как он выглядит, а это нечестно. Поэтому разработчики на Арене подумали-подумали, да и выкатили функцию style control для разделения содержания и стиля текста.
Оказалось, что когда текст оценивается без форматирования, некоторые модели заметно сдуваются. Например, GPT-4o-mini и Grok-2-mini оказались ниже всех, хотя до этого опережали Claude-3 Opus, Gemini-1.5-flash и других. А вот Claude 3.5 Sonnet, Opus, and Llama-3.1-405B наоборот сильно подскочили в рейтинге.
Как работает style control? Вообще, для сравнения двух моделей на основе предпочтений на Арене используется регрессия Брэдли-Терри. Чтобы контролировать стиль, теперь в нее в качестве независимых переменных добавились фичи длины и маркдауна (количество #, списков или болда в тексте). С их помощью можно оценить, насколько на предпочтения повлиял стиль.
Подход пока простой, и, конечно, может не учитывать некоторые корреляции. Но, как пишут разработчики, это "first step".
Гипотеза состоит в том, что пользователь может отдать свой голос за ту или иную модель, ориентируясь не только на содержание ответа, но и то, как он выглядит, а это нечестно. Поэтому разработчики на Арене подумали-подумали, да и выкатили функцию style control для разделения содержания и стиля текста.
Оказалось, что когда текст оценивается без форматирования, некоторые модели заметно сдуваются. Например, GPT-4o-mini и Grok-2-mini оказались ниже всех, хотя до этого опережали Claude-3 Opus, Gemini-1.5-flash и других. А вот Claude 3.5 Sonnet, Opus, and Llama-3.1-405B наоборот сильно подскочили в рейтинге.
Как работает style control? Вообще, для сравнения двух моделей на основе предпочтений на Арене используется регрессия Брэдли-Терри. Чтобы контролировать стиль, теперь в нее в качестве независимых переменных добавились фичи длины и маркдауна (количество #, списков или болда в тексте). С их помощью можно оценить, насколько на предпочтения повлиял стиль.
Подход пока простой, и, конечно, может не учитывать некоторые корреляции. Но, как пишут разработчики, это "first step".
52👍60❤9⚡8🔥3👏3
Рынок GPU as a Service в России растет, и МТС врывается на него с новыми мощностями: теперь клиентам МТС Web Services доступно на 40% больше GPU
Говорят, что до конца года эта цифра увеличится еще в 3-4 раза. Сейчас все больше российских компаний переносят работу с ИИ в облако, и спрос на соответствующие вычислительные ресурсы растет. Чтобы его удовлетворить, МТС Web Services запустили целых два новых кластера виртуальной инфраструктуры с GPU. Они помогут бизнесу упростить и ускорить обучение и инференс собственных ML-моделей.
Также до конца года на базе GPU-инфраструктуры будут развернуты: платформа для разработки, обучения и деплоя ML-моделей, уже готовые модели ИИ для разных индустрий и направлений, доступные по API и SaaS AI-сервисы.
Говорят, что до конца года эта цифра увеличится еще в 3-4 раза. Сейчас все больше российских компаний переносят работу с ИИ в облако, и спрос на соответствующие вычислительные ресурсы растет. Чтобы его удовлетворить, МТС Web Services запустили целых два новых кластера виртуальной инфраструктуры с GPU. Они помогут бизнесу упростить и ускорить обучение и инференс собственных ML-моделей.
Также до конца года на базе GPU-инфраструктуры будут развернуты: платформа для разработки, обучения и деплоя ML-моделей, уже готовые модели ИИ для разных индустрий и направлений, доступные по API и SaaS AI-сервисы.
«Мы стремимся, чтобы как можно больше компаний вне зависимости от их величины получили возможность обучать и внедрять в бизнес свои AI-модели», - отметил директор по новым облачным продуктам МТС Web Services Алексей Кузнецов.
🔥23👍8🤨5🙈5🤔3🤯2😁1
Ресерчеры забавы ради сделали в Дискорде чат, где LLM свободно общаются друг с другом
В итоге: у Llama постоянно случаются нервные срывы и приступы шизофрении, успокоить ее может только Claude Opus, а другие модели просто покуривают в сторонке🤷♂️
Напоминает те самые диалоги первых языковых моделей ELIZA и PERRY
В итоге: у Llama постоянно случаются нервные срывы и приступы шизофрении, успокоить ее может только Claude Opus, а другие модели просто покуривают в сторонке
Напоминает те самые диалоги первых языковых моделей ELIZA и PERRY
Please open Telegram to view this post
VIEW IN TELEGRAM
50😁97❤27👍6✍2
Это примерно 10 миллионов строк кода или 750 романов. Для сравнения, до этого рекордсменом по длине контекста был Gemini с 1M токенов, и даже это число произвело когда-то на презентации Google фурор.
Иронично, но модель называется LTM-2-Mini. LTM – это сокращение от Long-Term Memory. Эта архитектура не использует attention, и за счет этого контекстное окно в 100М ей обходится примерно в 1000 раз дешевле, чем, например, той же Llama 3.1 405B. А с памятью еще круче: если Llama потребовала бы 638 H100s на юзера только чтобы хранить KV кэш, то LTM требуется всего часть HBM одной видеокарты.
Бенчмарков пока нет, но в Magic уже заключили партнерство на кластер с Google Cloud и говорят, что прямо сейчас обучают бОльшую версию LTM-2 на суперкомпьютере
Please open Telegram to view this post
VIEW IN TELEGRAM
51🤯90👍14❤11🔥4⚡2
Яндекс выкатил программу своей ежегодной конференции Practical ML Conf, где анонсируются крупные запуски
Мероприятие пройдет 14 сентября, интересных докладов планируется много. Взять хотя бы «Человек и LLM. Как оценивать качество моделей и строить их метрики качества» Ирины Барской, руководителя службы аналитики и исследований Яндекса, или «AI-инструмент для разработчика: как мы обучали LLM работе с кодом» Виктора Плошихина, руководителя ML-лаборатории в Yandex Platform Engineering. Все это можно послушать офлайн в Москве или онлайн (советуем регистрироваться заранее, мест не так много).
Зарегистрироваться можно по этой ссылке.
Мероприятие пройдет 14 сентября, интересных докладов планируется много. Взять хотя бы «Человек и LLM. Как оценивать качество моделей и строить их метрики качества» Ирины Барской, руководителя службы аналитики и исследований Яндекса, или «AI-инструмент для разработчика: как мы обучали LLM работе с кодом» Виктора Плошихина, руководителя ML-лаборатории в Yandex Platform Engineering. Все это можно послушать офлайн в Москве или онлайн (советуем регистрироваться заранее, мест не так много).
Зарегистрироваться можно по этой ссылке.
👍19❤4🔥3
Инженер из Сан-Франциско провел интересный эксперимент и выяснил, что Claude якобы склонен к самосознанию
Экспериментатор попросил модель нарисовать самого себя, а также ChatGPT и Gemini, а затем показал эти рисунки другой версии Клода и попросил указать на автопортрет. И модель внезапно узнала себя. Потом эксперимент запустили еще раз и еще. В итоге Клод узнал свой портрет в 7/8 случаев!
Но и это не вся история. Парень также попросил ChatGPT нарисовать аналогичные портреты, а потом снова показал их Клоду. При этом он соврал, что портреты якобы опять нарисовал другой экземляр Claude, на что модель внезапно заявила: "Нет, я не рисовал это"😅
Экспериментатор попросил модель нарисовать самого себя, а также ChatGPT и Gemini, а затем показал эти рисунки другой версии Клода и попросил указать на автопортрет. И модель внезапно узнала себя. Потом эксперимент запустили еще раз и еще. В итоге Клод узнал свой портрет в 7/8 случаев!
Но и это не вся история. Парень также попросил ChatGPT нарисовать аналогичные портреты, а потом снова показал их Клоду. При этом он соврал, что портреты якобы опять нарисовал другой экземляр Claude, на что модель внезапно заявила: "Нет, я не рисовал это"
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
54😁110🤯37❤19👍9🤔8🙈3🤪2🐳1💘1