Data Secrets
Microsoft опубликовали Phi-3 Всего там три модели: mini (3.8B), small (7B) и medium (14B). Самая интересная из всех – mini. Эта крошка сравнима со старой версией GPT-3.5, Llama-3 8b и Mixtral 8x7b. На бенчмарке MT-bench, который мы вчера обсуждали, моделька…
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft релизнули в опенсорс Phi-3-Vision-128K-Instruct
С момента публикации статьи про Phi-3 прошел месяц, и вот компания раскатила на основе Phi-3 Mini мультимодальную модель.
Архитектура: энкодер, коннектор, проектор, ну и Phi-3 Mini. Контекст 128К. Главная фишка – это крохотный размер, всего 4.2B параметров. Обучена на 500B токенах (сразу текст + картинки).
🤗 Hugging Face
С момента публикации статьи про Phi-3 прошел месяц, и вот компания раскатила на основе Phi-3 Mini мультимодальную модель.
Архитектура: энкодер, коннектор, проектор, ну и Phi-3 Mini. Контекст 128К. Главная фишка – это крохотный размер, всего 4.2B параметров. Обучена на 500B токенах (сразу текст + картинки).
🤗 Hugging Face
❤25🔥14🥰7
Что тут у нас? Это же новая громкая статья от Anthropic про интерпретируемость модели!
Исследование просто взорвало комьюнити: в нем выясняется, что, затюнив какие-то вполне конкретные фичи, мы можем заставить LLM всегда писать уязвимый код, генерировать фишинг и др. Как это работает – выясняем в карточках.
Подробнее: сочный блогпост с визуализациями, статья.
Исследование просто взорвало комьюнити: в нем выясняется, что, затюнив какие-то вполне конкретные фичи, мы можем заставить LLM всегда писать уязвимый код, генерировать фишинг и др. Как это работает – выясняем в карточках.
Подробнее: сочный блогпост с визуализациями, статья.
❤56🔥21👍10
Угадайте, кто 🐣
Да-да, CEO самого мощного ИИ-стартапа в мире. Вы, кстати, знали, что Альтман научился программировать и собирать Macintosh в 8 лет?
Да-да, CEO самого мощного ИИ-стартапа в мире. Вы, кстати, знали, что Альтман научился программировать и собирать Macintosh в 8 лет?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁50 39 16🤯4🗿3🤗2💘1
Альтман на презентации Microsoft опять намекает на GPT-5
“Мы еще далеко от того, насколько мощными будут модели, но улучшения уже в пути“.
Притормозите, мы еще привыкаем к GPT-4o…
“Мы еще далеко от того, насколько мощными будут модели, но улучшения уже в пути“.
Притормозите, мы еще привыкаем к GPT-4o…
👍48🔥11❤8🤔3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Мантия выпускника, которая нужна нам всем
Прошел слух, что Meta* не собирается опенсорсить веса своей самой крупной (400B) модели из семейства Llama-3.
Наверное, Цукер все-таки тайно мечтает попасть на ту самую closed-source тусовку в совет безопасности
Наверное, Цукер все-таки тайно мечтает попасть на ту самую closed-source тусовку в совет безопасности
🤔40 16 13😁6👍1
SQL в Jupyter ноутбуках
Наткнулись и не могли не поделиться – удобное и и функицонально богатое расширение к магической команде %%sql. Открывает возможности рисовать графики, обрабатывать витрины побольше и создавать временные таблицы. Пример установки и использования выше👆
GihHub
Наткнулись и не могли не поделиться – удобное и и функицонально богатое расширение к магической команде %%sql. Открывает возможности рисовать графики, обрабатывать витрины побольше и создавать временные таблицы. Пример установки и использования выше
GihHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥95❤13👍12🤯5⚡1😎1
Там на Hugging Face нашлась тулза, которая оценит, насколько вы «GPU rich» 🤑
Хвастаемся терафлопсами в коментариях
Хвастаемся терафлопсами в коментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27😁7❤5🤝2🔥1😨1
Разбор модели DeepSeekMath: как научить LLM решать математические задачки
Конкурс на Kaggle, в котором можно выиграть миллион долларов, научив LM математике, продолжается. А значит, у нас всех еще есть шанс😉
Чтобы вас немного вдохновить и порадовать, мы приготовили разбор сеточки DeepSeekMath: это лидирующая по количеству использований в этом соревновании и к тому же самая свежая модель, заточенная специально под математические задачи. По качеству догоняет Gemini-Ultra и GPT-4.
Емкая выжимка – в карточках. А более понятное и глубокое объяснение всех этапов, больше метрик и схем вы можете найти в полном разборе на нашем сайте.
Сохраняйте: https://datasecrets.ru/articles/11
Конкурс на Kaggle, в котором можно выиграть миллион долларов, научив LM математике, продолжается. А значит, у нас всех еще есть шанс
Чтобы вас немного вдохновить и порадовать, мы приготовили разбор сеточки DeepSeekMath: это лидирующая по количеству использований в этом соревновании и к тому же самая свежая модель, заточенная специально под математические задачи. По качеству догоняет Gemini-Ultra и GPT-4.
Емкая выжимка – в карточках. А более понятное и глубокое объяснение всех этапов, больше метрик и схем вы можете найти в полном разборе на нашем сайте.
Сохраняйте: https://datasecrets.ru/articles/11
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41🔥11❤4