Love. Death. Transformers.
дошли руки поиграться с suno.ai, очень забавно
This media is not supported in your browser
VIEW IN TELEGRAM
гей рок это то что вам нужно
Мы все живём в ебанутом романе Пелевина.
В далеком 2018 мы ходили на митинги, хотели чтобы в России стало лучше.
Мы лишены родины, стали нежелательными элементами, но несем часть той самой родины от Бали до Лос Анжелеса. Строим сервисы, рестораны, науку, основываем компании.
Вы узнаете кафе эмигрантов этой волны по рафу, по характерному миксу кухни и любви к кофе. Не забывайте кто вы, помогайте друг другу.
Не стоит забывать тех кто боролся и пытался. Недавно было 40 дней Алексея.
Видео
Помогите чем можете, тем кому можете.
В далеком 2018 мы ходили на митинги, хотели чтобы в России стало лучше.
Мы лишены родины, стали нежелательными элементами, но несем часть той самой родины от Бали до Лос Анжелеса. Строим сервисы, рестораны, науку, основываем компании.
Вы узнаете кафе эмигрантов этой волны по рафу, по характерному миксу кухни и любви к кофе. Не забывайте кто вы, помогайте друг другу.
Не стоит забывать тех кто боролся и пытался. Недавно было 40 дней Алексея.
Видео
Помогите чем можете, тем кому можете.
👍189❤151🤡139 14👎13 8👏7🤔3😢2🔥1
Love. Death. Transformers.
Photo
Это не чат, это Ebа́nyChat. Еба́ноязычная Chа́tGPT от лаборатории еба́ного резерча
Здарова, хабровчане!
Хайп вокруг нейросетей, заалайненых при помощи Instructions и RLHF (известных в народе под единым брендом «хуйня из под коня из каждого утюга»), трудно не заметить. Именно поэтому мы решили тоже хайпануть запрыгнуть в этот поезд!
Общий подход для обучения подобных моделей примерно такой:
1. Заиметь хорошую LLM.
2. Сделать SFT.
3. Собрать фидбек.
4. Полирнуть все RLHF’ом.
В текущем релизе мы забили хуй на все эти пункты, как один из способов максимального прироста в качестве (а кто нас проверит, лол?).
Давайте посмотрим, что же находится внутри Ebа́nyChа́t’а.
⁃ Рандомная LM, которую нам принес стажер с хагинфейса (ваще похуй че там внутри, 13B параметров сделают go brrrr (больше модельки мы не умеем файнтьюнить))
⁃ Датасет для SFT (перевели альпаку-хуяку промтом; похуй, сгодится; еще собрали каких-то случайных датасетов с ХФ’а и захардкодили промпты; все же нормально будет, да? оверфитинг? ну мы меньше итераций обучения поставим)
⁃ Затем мы начали дрочить развесовку для этих датасетов на глазок (кидали кости на доску и записывали значения в качестве веса. Наш джун после этого сошел с ума, сказал что мы занимаемся какой-то дикой поеботой и устроился на работу в нормальное место)
⁃ Разочек обучили модель (а зачем че-то там тьюнить? (а вообще к нам пришли ребята с прода и сказали освобождать железо, т.к. мы опять занимаемся хуйней)) В какой-то момент она перестала генерировать <pad> <pad> <pad> — решили что близки к AGI и остановили обучение.
Сперва мы вообще хотели забить хуй на тестирование, но наш менеджер сказал что нужны какие-то цифры. В общем, позвали деврела, показали ему 3 парных семпла с chatgpt, спросили какие из них луче. Он везде сказал что чатжпт лучше. Получилось какое-то ебаное качество, но как-то плевать, напишем что 1 к 3 лучше. (деврела уволили, кстати).
Ни метрики, ни честный Human Evaluation мы показывать конечно же не будем. Кого это ебет? Тебя это ебет?
А, да, не зарелизим претрейн. Мы его кстати назвали gpt-5. Почему? Просто.
Под катом у нас куча примеров, которые мы начерепикали, наслаждайтесь. Должно хватить на постов 10-20 где-то еще.
https://news.1rj.ru/str/ebaresearch/458
Здарова, хабровчане!
Хайп вокруг нейросетей, заалайненых при помощи Instructions и RLHF (известных в народе под единым брендом «хуйня из под коня из каждого утюга»), трудно не заметить. Именно поэтому мы решили тоже хайпануть запрыгнуть в этот поезд!
Общий подход для обучения подобных моделей примерно такой:
1. Заиметь хорошую LLM.
2. Сделать SFT.
3. Собрать фидбек.
4. Полирнуть все RLHF’ом.
В текущем релизе мы забили хуй на все эти пункты, как один из способов максимального прироста в качестве (а кто нас проверит, лол?).
Давайте посмотрим, что же находится внутри Ebа́nyChа́t’а.
⁃ Рандомная LM, которую нам принес стажер с хагинфейса (ваще похуй че там внутри, 13B параметров сделают go brrrr (больше модельки мы не умеем файнтьюнить))
⁃ Датасет для SFT (перевели альпаку-хуяку промтом; похуй, сгодится; еще собрали каких-то случайных датасетов с ХФ’а и захардкодили промпты; все же нормально будет, да? оверфитинг? ну мы меньше итераций обучения поставим)
⁃ Затем мы начали дрочить развесовку для этих датасетов на глазок (кидали кости на доску и записывали значения в качестве веса. Наш джун после этого сошел с ума, сказал что мы занимаемся какой-то дикой поеботой и устроился на работу в нормальное место)
⁃ Разочек обучили модель (а зачем че-то там тьюнить? (а вообще к нам пришли ребята с прода и сказали освобождать железо, т.к. мы опять занимаемся хуйней)) В какой-то момент она перестала генерировать <pad> <pad> <pad> — решили что близки к AGI и остановили обучение.
Сперва мы вообще хотели забить хуй на тестирование, но наш менеджер сказал что нужны какие-то цифры. В общем, позвали деврела, показали ему 3 парных семпла с chatgpt, спросили какие из них луче. Он везде сказал что чатжпт лучше. Получилось какое-то ебаное качество, но как-то плевать, напишем что 1 к 3 лучше. (деврела уволили, кстати).
Ни метрики, ни честный Human Evaluation мы показывать конечно же не будем. Кого это ебет? Тебя это ебет?
А, да, не зарелизим претрейн. Мы его кстати назвали gpt-5. Почему? Просто.
Под катом у нас куча примеров, которые мы начерепикали, наслаждайтесь. Должно хватить на постов 10-20 где-то еще.
https://news.1rj.ru/str/ebaresearch/458
Telegram
еба́ные идеи для резерча
Это не чат, это Ebа́nyChat. Еба́ноязычная Chа́tGPT от лаборатории еба́ного резерча
Здарова, хабровчане!
Хайп вокруг нейросетей, заалайненых при помощи Instructions и RLHF (известных в народе под единым брендом «хуйня из под коня из каждого утюга»), трудно…
Здарова, хабровчане!
Хайп вокруг нейросетей, заалайненых при помощи Instructions и RLHF (известных в народе под единым брендом «хуйня из под коня из каждого утюга»), трудно…
😁59👍7❤6🤮4 4👎1
Love. Death. Transformers.
Photo
Хабр
Яндекс представил третье поколение больших языковых моделей YandexGPT
Сегодня мы анонсируем линейку нейросетей YandexGPT 3. Первая из них — YandexGPT 3 Pro — уже доступна по API на сайте Yandex Cloud, в том числе в бесплатном демо-режиме . Кроме того,...
😁17👍6🤮6❤1
Будущее с обманом роботов уже здесь.
администрация канала осуждает такое
администрация канала осуждает такое
😁114👎21👍3 3❤2🤮1
Forwarded from STACK MORE LAYERS (Alexander Mamaev)
This media is not supported in your browser
VIEW IN TELEGRAM
Посвящается всем авторам ТГ каналов про Эй Ай
https://app.suno.ai/song/71d79d32-73f1-42e4-8b55-16809ebfad33
Я слежу что пишет сама
Знаю все про Гэ Пэ Тэ
Ворлд модели строит Сора
подпишись на мой тэ гэ
Здесь посты и много мемов
Можно слушать и читать
Будешь лучшем в мире сеток
Клоуна не ставьте блять
Когда ты станешь самым смелым
Будешь шарить, больше знать
Будет офер, много денег
Незабудь донат прислать
https://app.suno.ai/song/71d79d32-73f1-42e4-8b55-16809ebfad33
🔥66🤡51😁7 5❤1👎1👏1🤮1
ебать и приговаривать - flash attention не всегда эквивалентен, реализации разные сильно отличаются по перфомансу и качеству
Love. Death. Transformers.
ебать и приговаривать - flash attention не всегда эквивалентен, реализации разные сильно отличаются по перфомансу и качеству
This media is not supported in your browser
VIEW IN TELEGRAM
👍2❤1