местный датасасер ☮️ – Telegram
местный датасасер ☮️
1.92K subscribers
1.01K photos
61 videos
7 files
658 links
Пишу всякое о технологиях и моих проектах, @egorvoron
Download Telegram
Forwarded from addmeto (Grigory Bakunov)
Пятничная новость: куча товаров на Амазоне называются “I apologize but I cannot fulfill this request (because it violates OpenAI use Policy)” и подобными. Да, потому что выкладка товаров в магазины у многих уже автоматизирована через GPT. 2024, что ты делаешь, прекрати.

https://www.theverge.com/2024/1/12/24036156/openai-policy-amazon-ai-listings
Forwarded from Generative Anton (Anton Repushko)
“Любая достаточно развитая технология неотличима от магии” (Артур Кларк)

Это — телефонный разговор с роботом на другом конце. Поражает скорость инференса всего этого на лету (800мс задержка до проигрывания ответа) и качество эмоций. Можно попробовать самому на их сайте (это действительно работает).

Приятно, что хорошая инженерия всё ещё может быть ключевой основой продукта.
Forwarded from эйай ньюз
DBRX - новый лидер открытых моделек

Обгоняет все открытые модельки на большинстве бенчмарков, в том числе опубликованный неделю назад Grok (который в два раза больше). Лицензия похожая на лицензию ламы - все кто меньше телеграма могут спокойно использовать в своих коммерческих продуктах.

Архитектурно это Mixture of Experts (16 экспертов, из них 4 активных), 132 миллиарда параметров (из них 36 миллиардов - активные), тренировали пару месяцев на 3 тысячах H100 и 12 триллионах токенов, длина контекста - 32к, Модель тренировали в fp8, что дало 1.4x-1.5x прирост по сравнению с bf16. В целом она тренируется при том же компьюте в 4 раза эффективнее чем их же прошлогодняя MPT - 2x прироста идёт от MoE, 2x от датасета получше.

В минимальных требованиях - 320 гигабайт видеопамяти, что недоступно для простых смертных.

Демка
Instruct модель (доступ дают сразу после подписания лицензии)
Базовая модель (доступ одобряют отдельно)
Код
Блогпост с анонсом модели
Блогпост с деталями тренировки

@ai_newz
Forwarded from Вера в tech
Спотифай нашёл хорошее применение для больших языковых моделей — будут делать ии-плейлисты по пользовательским промптам. Пишешь "меня бросила девушка, врубай музыку, чтобы страдать", и специально по твоему запросу формируется плейлист. Если результат не совсем устроил, можно дать фидбек — "побольше треков Radiohead", например. Жду возможности потестить.

Если говорить про поиск (не в поисковиках, а скорее на контентных платформах), подобная реализация кажется мне очень удачной. Я бы хотела искать картинки в пинтересте, арты в твиттере, мемы на реддите или тиктоки в тиктоке не по ключевым словам, а по таким вот сложным запросам — то есть по вайбам.

Всем коллегам из вк и Яндекса привет, надеюсь, что это у вас уже в планах 😏
Помните, была тема с дипфейком Ким Кардашьян, объясняющей коротенькие темы из математики? Так вот, эти видео никуда не делись, а продолжают регулярно выходить. 💜

Замена переменной в интеграле:
https://youtu.be/4fF6NydCNuw?si=ydOJV2NpgbYq594y

Вывод производной x² из определения:
https://youtu.be/qPhLWfn-t_4?si=-uIogJ_sufxK-FNB

Цепное правило:
https://youtu.be/ulbmQJG5GrA?si=O5IHessFBNUF2pk4

Забавно и мило 😀

#математика
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
Вау, вау, вау. Microsoft официально запилил Copilot бота для Telegram. Если кто не в курсе, то это ChatGPT в интерфейсе от Microsoft.

И это реально официалный бот от Microsoft – вот анонос. Я такого совсем не ожидал. Кажется, БигТехи начинают осознавать потенциал Телеграма, ну либо Бинг просто ищет любые дополнительные источники трафика.

Кажется, это первое появление официального представителя компании-разработчика крупных LLM в Телеге.

Пообщаться можно тут: @CopilotOfficialBot. Он, гаденыш, правда, просит телефон верифицировать – мне такое не очень нравится.

@ai_newz
Forwarded from Сиолошная
Сегодня происходит много странно-интересного:
— прямо сейчас (хотя бы частично) лежат ChatGPT, Perplexity, Gemini, Claude
— ведущие AI-исследователи и бывшие/текущие сотрудники OpenAI/DeepMind подписывают открытое письмо про то, что работающие над AGI должны иметь возможность свободно выражать свое мнение и критиковать компанию без возможности компаний отобрать финансовые стимулы. А то дают миллионы долларов акций, а потом говорят «ну вот, а скажешь, что не согласен с нами — потеряешь всё!».
— недавно уволенный сотрудник OpenAI Leopold Aschenbrenner, работавший рука об руку с Ilya Sutskever в его команде, опубликовал 150+ страничную работу. Она покрывает всё: от законов масштабирования и предсказаний развития моделей до проблем Alignment'а и поведения ведущих лабораторий в преддверии достижения AGI. Читать: http://situational-awareness.ai . Если у вас есть полчасика и вы умеете читать по-английски, и вам вправду хочется понять, почему люди кричат, что к 2027-2030м годам модели реально поумнеют — начните с первых двух глав.
— ...и вместе с ним же выходит 4-часовое интервью у Dwarkesh'а, которого я уже ни раз рекомендовал. Будем смотреть по частям, об интересных вещах постараюсь написать. Покрытые темы:
1) гонка к кластеру мощностей стоимостью $1T (триллион долларов)
2) что будет в 2028-м
3) что случилось в OpenAI (не думаю, что раскроет какие-то новые детали)
4) шпионаж Китая в AGI-лабораториях
Forwarded from Сиолошная
Что-то все модели выпускают, а от Mistral🇫🇷давно новостей не было. Сегодня они выпустили две модели, одна заточена на математику, другая — на написание кода.

MathΣtral — компактная модель размера 7B, по архитектуре эквивалентная ранним релизам компании. Её доучили на решение сложных математических задач, требующих комплексных, многосутпенчатых логических рассуждений.

На MMLU модель показывает прирост более чем в 10% в отдельных под-категориях, и целых 15% в элементарной математике, физических задачах старшей школы/колледжей и, внезапно, машинном обучении.

Модель справилась с 2мя задачами из 30 на American Invitational Mathematics Examination (AIME). Это второй из трёх этапов отбора команды на международную олимпиаду по математике в США — тут задачки уже поинтереснее, но всё ещё не как на финалах. Кажется, что 2 задачи это мало, но из моделей сопоставимого размера лишь китайский Qwen 2 7B тоже решает 2; большинство остальных — нуль.

Проценты решений задач других олимпиад можете увидеть на картинке

Модель уже доступна на HF (не торрент!). Её, кстати, делали совместно с Project Numina — это проект, члены которого также недавно выиграли соревнование AIMO по решению олимпиадных задач LLMками (писал тут). Там победное решение использовало DeepSeek Math 7B (вторая строчка в таблице). Так что при следующем запуске соревнования можно ожидать, что результат первого места ещё подскочит вверх — просто за счёт смены одной модели на другую, чуть более мощную.

Для справки: maj@16 означает, что модель независимо генерирует 16 решений на задачу, после чего проводится голосование большинством, и выбирается тот ответ, который чаще попадался. Важно понимать, что это не означает, что система даёт 16 ответов с 16 попыток — попытка одна, а maj позволяет выбрать один ответ, который модели кажется наиболее правильным.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня хочу порекомендовать канал @dlinnlp, на который сам давно подписан
В нем есть и годные короткие разборы выходящих папиров по МЛ и просто фановые мемы.
Тем, кто заинтересован машинкой и ИИ в целом советую также папку авторских каналов, собранную @boris_again (за что ему большой респект, потому что подобрать хорошие каналы по мл и отсеять мусорные во время хайпа нейронок это большой труд)
Forwarded from эйай ньюз
Дешёвые, как грязь, LLM

API-провайдеры невероятно быстро снижают стоимость использования своих LLM. При отсутствии ярко выраженного лидера по качеству моделей, главным аргументом становится цена.

Google с 12 августа дропает цены на Gemini Flash на 80%. Вот и реакция на GPT-4o mini, спустя две недели после релиза. Вот бы то же самое сделали с Pro 1.5.

Новая версия GPT-4o упала в цене до $2.5 input/$10 output за миллион токенов, прошлые версии стоили $5 input/$15 output за миллион токенов. Последний месяц Claude 3.5 Sonnet и Llama 3.1 405B сильно поджимали OpenAI по цене, пришлось отвечать.

Deepseek релизит обещанный месяц назад Context Caching. Цены поражают: стоимость токенов при попадании в кэш падает не в 2x, как у гугла, а в 10x, при этом с бесплатным хранением. DeepSeek V2 и так произвёл эффект разорвавшейся бомбы на китайском рынке три месяца назад: модель была в разы дешевле конкурентов, при лучшем качестве. А сейчас нанесли добивающий удар.

С такими темпами цена за миллион токенов станет меньше цента менее чем через год. И будем мы мерять цены в долларах за миллиард токенов.

А помните, цены на GPT-4 доходили до $60 input/$120 output?

@ai_newz
Forwarded from Futuris (Anton)
This media is not supported in your browser
VIEW IN TELEGRAM
Ai видео выходят на новый уровень 🌚 взял отсюда

https://www.reddit.com/r/singularity/s/ZJDFkIUDC6

Если что это Runway
Свободу Паше!