Тем временем в Твиттере продолжают сравнивать модели по их способностям в майнкрафте 😔
Вот, например, Sonnet 3.5 new против o1 preview
Кто победил?
Вот, например, Sonnet 3.5 new против o1 preview
Кто победил?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁77❤15👍8🔥3
Хотя Альтман новости о декабрьском релизе опроверг, все уже переполошились: Google не хочет отставать от конкурента и теперь тоже планирует релизить новую Gemini 2 перед Новым Годом.
Winter is coming 🔥
Winter is coming 🔥
😁74👍14🔥11🗿1
OpenAI предложили эффективное упрощение диффузионных моделей
Диффузионные модели – SOTA для генерации картинок, аудио и даже видео, но сэмлирование у этой архитектуры происходит на скорости черепахи. Чтобы получить один сэмпл, модели требуется прогнать сотни степов диффузии.
Некоторое время назад OpenAI начали работать над этой проблемой и в июне предложили так называемые Consistency модели: они, в отличие от обычных диффузионок расшумляют не итерационно, а как бы однозначно мапят шум и данные. За счет этого генерировать изображение можно не за сотни шагов, а всего за 1-2.
А на днях у стартапа вышла статья-продолжение: в ней они описывают sCM – scaled consistency model. Эти модельки оптимизированы еще сильнее. Например, если диффузия сэмплит образец за 6.16 секунд, то у sCM на это уходит 0.11 – разница очень существенная. И масштабируемость красивая: посмотрите на графики.
Качество образцов кстати тоже не уступает. И по FID, и на глаз модель соответствует качеству хороших взрослых диффузий, хотя и является по сути дистилляцией.
Полный текст статьи – здесь
Диффузионные модели – SOTA для генерации картинок, аудио и даже видео, но сэмлирование у этой архитектуры происходит на скорости черепахи. Чтобы получить один сэмпл, модели требуется прогнать сотни степов диффузии.
Некоторое время назад OpenAI начали работать над этой проблемой и в июне предложили так называемые Consistency модели: они, в отличие от обычных диффузионок расшумляют не итерационно, а как бы однозначно мапят шум и данные. За счет этого генерировать изображение можно не за сотни шагов, а всего за 1-2.
А на днях у стартапа вышла статья-продолжение: в ней они описывают sCM – scaled consistency model. Эти модельки оптимизированы еще сильнее. Например, если диффузия сэмплит образец за 6.16 секунд, то у sCM на это уходит 0.11 – разница очень существенная. И масштабируемость красивая: посмотрите на графики.
Качество образцов кстати тоже не уступает. И по FID, и на глаз модель соответствует качеству хороших взрослых диффузий, хотя и является по сути дистилляцией.
Полный текст статьи – здесь
👍43❤9🔥8
This media is not supported in your browser
VIEW IN TELEGRAM
Рубрика «красивое»: очень крутая интерактивная визуализация работы ANN в динамике из одного из курсов brilliant.org
👍105😍49❤10
Media is too big
VIEW IN TELEGRAM
Google: релизят свой самый крутой сервис за год
Meta: буквально через пару месяцев показывают опенсорс аналог
Да, в Meta выпустили открытую копию того самого NotebookLM, который генерирует подкасты из pdf, – Notebook Llama. Что под капотом:
⚙️ Предобработка PDF: Llama-3.2-1B-Instruct используется для преобразования pdf в txt.
⚙️ Составление сценария: здесь для написания драфта текста используется Llama-3.1-70B-Instruct, а затем Llama-3.1-8B-Instruct перерабатывает текст и делает его более лиричным и «очеловеченным», чтобы подкаст получился поживее.
⚙️ Text2speech: тут прикрутили parler-tts-mini и suno.
Пока еще заметны шероховатости, но замена точно достойная (пример⬆️ ). Код ищите тут.
Meta: буквально через пару месяцев показывают опенсорс аналог
Да, в Meta выпустили открытую копию того самого NotebookLM, который генерирует подкасты из pdf, – Notebook Llama. Что под капотом:
Пока еще заметны шероховатости, но замена точно достойная (пример
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Линус Торвальдс: «Я фанат ИИ, но не хайпа вокруг него»
По его словам, реальный потенциал и пользу искусственного интеллекта можно будет оценить только на расстоянии, то есть примерно через 5 лет. «Сейчас ИИ на 90% состоит из маркетинга, и я ненавижу этот период хайпа»
По его словам, реальный потенциал и пользу искусственного интеллекта можно будет оценить только на расстоянии, то есть примерно через 5 лет. «Сейчас ИИ на 90% состоит из маркетинга, и я ненавижу этот период хайпа»
👍113❤22💯12😐9🌚2🤓2🤝2🔥1🤨1💅1🦄1
Apple Intelligence здесь!
Правда, если вы не из определенного списка стран или у вас не определенное устройство, то вас отправят в Waitlist☹️
Правда, если вы не из определенного списка стран или у вас не определенное устройство, то вас отправят в Waitlist
Please open Telegram to view this post
VIEW IN TELEGRAM
👍36🔥8🗿8❤2
Помните недавнюю статью Anthropic про новую технику RAG, которая навела столько шума?
Кратко: исследователи предложили технику аннотирования чанков и смешивания обычных эмбеддингов с TF-IDF. Количество галлюцинаций на таком пайплайне понизилось относительно классических техник RAG на 35% (!). Более подробный разбор статьи мы делали здесь.
Так вот, теперь появился шанс познакомиться с архитектурой еще ближе: появилась опенсорсная реализация от ребят из Together AI. Они используют Llama 3.2 3B для аннотирования, и Llama 3.1 405B как основную модель.
Код здесь. Если вы исследователь, то будет супер полезно поиграться и разобраться. А если крутите RAG где-то на проде – то сохраняйте имплементацию на заметку.
Кратко: исследователи предложили технику аннотирования чанков и смешивания обычных эмбеддингов с TF-IDF. Количество галлюцинаций на таком пайплайне понизилось относительно классических техник RAG на 35% (!). Более подробный разбор статьи мы делали здесь.
Так вот, теперь появился шанс познакомиться с архитектурой еще ближе: появилась опенсорсная реализация от ребят из Together AI. Они используют Llama 3.2 3B для аннотирования, и Llama 3.1 405B как основную модель.
Код здесь. Если вы исследователь, то будет супер полезно поиграться и разобраться. А если крутите RAG где-то на проде – то сохраняйте имплементацию на заметку.
❤39🔥11👍8❤🔥2
Google:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43🔥14🫡8❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Там в Твиттере случайно сгенерировали классическую реакцию на новость про шестидневку
🔥82😁50🫡5🤝3😐1
This media is not supported in your browser
VIEW IN TELEGRAM
Вот так коллаб: NVIDIA совместно с xAI построили Colossus – самый большой в мире суперкомпьютер
Colossus был создан всего за 122 дня и работает на базе сетевой платформы NVIDIA Spectrum-X Ethernet, которая была разработана специально для обучения ИИ. Ее соль в повышенной пропускной способности: 95% с нулевой задержкой.
В Colossus (приготовьтесь) 100 000 видеокарт NVIDIA H100. И, судя по твитам Маска, туда собираются добавить еще столько же H200. Кластер будет использоваться для обучения моделей Grok.
Colossus был создан всего за 122 дня и работает на базе сетевой платформы NVIDIA Spectrum-X Ethernet, которая была разработана специально для обучения ИИ. Ее соль в повышенной пропускной способности: 95% с нулевой задержкой.
В Colossus (приготовьтесь) 100 000 видеокарт NVIDIA H100. И, судя по твитам Маска, туда собираются добавить еще столько же H200. Кластер будет использоваться для обучения моделей Grok.
👍51🔥32❤6👀5
В модельке 2.5В параметров, так что, как создатели написали в релизе, запустить ее можно даже «на тостере». Для малышки потребуется всего 10 Гб видеопамяти, а на метриках это SOTA в своем размере.
Самое приятное: модель открыта как для личного, так и для коммерческого использования.
Веса | Блог
Please open Telegram to view this post
VIEW IN TELEGRAM
❤34👍20🔥9💘2❤🔥1👏1
Более 25% кода, который сейчас пишут в Google, создается ИИ
Об этом рассказал Сундар Пичаи. Политика такова, что инженерам разрешают и даже рекомендуют активно использовать ИИ для генерации нового кода (но, конечно, сгенерированный код затем внимательно проверяется).
Кроме того, CEO поделился занятными цифрами: бизнес Google Cloud увеличился на 35%, и аналитики считают, что в основном это заслуга ИИ, который помогает заключать крупные b2b сделки.
Об этом рассказал Сундар Пичаи. Политика такова, что инженерам разрешают и даже рекомендуют активно использовать ИИ для генерации нового кода (но, конечно, сгенерированный код затем внимательно проверяется).
Кроме того, CEO поделился занятными цифрами: бизнес Google Cloud увеличился на 35%, и аналитики считают, что в основном это заслуга ИИ, который помогает заключать крупные b2b сделки.
🔥56🤯22👍5😁4❤1🌚1
Reuters: OpenAI создает свой первый чип
Но амбиции пришлось подурезать: раньше Альтман хотел полностью автономное производство, но сейчас стартап работают с TSMC. Да и в целом компания уходит от планов перейти полностью на собственные чипы просто к стратегии максимальной диверсификации: например, OpenAI также начинает закупать карты AMD.
Но амбиции пришлось подурезать: раньше Альтман хотел полностью автономное производство, но сейчас стартап работают с TSMC. Да и в целом компания уходит от планов перейти полностью на собственные чипы просто к стратегии максимальной диверсификации: например, OpenAI также начинает закупать карты AMD.
👍27❤5🔥5
Что-то интересное: ученые из M-A-P и ByteDance слепили AutoKaggle – мультиагентный фреймворк для автономного решения DS/ML соревнований
Библиотека работает по итеративной схеме. На каждом этапе агенты выполняют определенные привычные нам шаги: в начале очищают и обрабатывают данные, а потом экспериментируют с моделями, отлаживают код, тестируют и тд.
Под капотом агенты в ролях Reader, Planner, Developer, Reviewer и Summarizer, которые взаимодействуют по определенной схеме (см., например, псевдокод). На практике это работает, как горячая картошка – агенты перекидывают задачи друг другу, и каждый из них внутри себя имеет собственный алгоритм того, что с задачей нужно сделать и кому отдать дальше.
В качестве базовой модели пробовали gpt-4o и o1-mini. Оказалось, что перформят они плюс-минус одинакого. Вообще, результаты получились неплохие: на восьми валидационных хакатонах в среднем фреймворк выбил скор 0,85.
Код | Статья
Библиотека работает по итеративной схеме. На каждом этапе агенты выполняют определенные привычные нам шаги: в начале очищают и обрабатывают данные, а потом экспериментируют с моделями, отлаживают код, тестируют и тд.
Под капотом агенты в ролях Reader, Planner, Developer, Reviewer и Summarizer, которые взаимодействуют по определенной схеме (см., например, псевдокод). На практике это работает, как горячая картошка – агенты перекидывают задачи друг другу, и каждый из них внутри себя имеет собственный алгоритм того, что с задачей нужно сделать и кому отдать дальше.
В качестве базовой модели пробовали gpt-4o и o1-mini. Оказалось, что перформят они плюс-минус одинакого. Вообще, результаты получились неплохие: на восьми валидационных хакатонах в среднем фреймворк выбил скор 0,85.
Код | Статья
🔥50🫡17👍12🤯4❤1🤔1🍓1😎1