Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.78K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Юрген выдавал базу ещё в 1991, просто лекун и авторы трансформера все украли и не процитировали.

Архив
👍51157🔥5🤓2😁11
😁97😐11👍76👏3
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Приболел и застрял дома, поэтому сделал в этот раз более полезную GPT конкретно для ChatGPT приложений в режиме «аудио»:

Если вы искали работу, то вы наверное помните как это стрессово — во время интервью, HR может задать какие-то вопросы по CV, и хоть вы их и знаете, можете разнервничаться, запинаться — отсутствие практики сильно добавляет тревожности.

Многие с кем я говорил, кто работает в корпорациях из топа IT — часто говорили что «пройти собеседование» это навык, который можно практиковать и развивать, а сама работа отличается от того, что спрашивают на собеседованиях (так везде ☕️).

Чтобы помощь как-то людям, появилось целое направление HR-видео для кандидатов — они называются «Mock Interview» или «Интервью покабудки»:
Псевдо-собеседование записывается на камеру, иногда между реальным HR и реальным сотрудником из какой-то корпорации, потом выкладывается на Yotube и кандидатам это помогает понять как именно отвечать на вопросы и как готовиться к интервью.

Естественно, такое интервью — не адаптировано конкретно под ваше резюме, конкретно под ваш язык, или под вакансию на которую вы откликаетесь.

Поскольку мы уже живем в АИ-будущем, я подумал что это нужно исправить.

⚙️ Mock Interview Practice GPT:

1) Сохраняете вакансию и ваше CV в виде PDF или HTML страницы, или просто копируете как текст (только отметьте где что)

2) Открываете мою новую GPT «Mock Interview Practice»

3) Вставляете туда файлы / текст, и пишите ей в стиле «Спасибо что пригласили меня, давайте начнем»

4) GPT предложит вам включить «Voice Mode» (иконка 🎧 в аппе, в вебе этой функции нет) — обязательн включите его

5) Проходите интервью как в жизни — займет минут 15-20, в конце, попросите дать фидбек по тому, что улучшить и над чем поработать

6) Добро пожаловать в OpenAI, передавайте привет Сэму

GPT поддерживает все языки, в видео пример (и я болеющий)
Please open Telegram to view this post
VIEW IN TELEGRAM
624🔥4👍1
Релиз 5.* вихря

Арена на этих данных. Релиз арены выйдет ДАННЫЕ УДАЛЕНЫ

апвотить папир тут
модель

если вы случайно богатый дон или компания с кучей лишних карт - мы ждем вас @transformerslovedeatch

Авторы: @nlpwanderer @mlunderground
👍32🔥62
Love. Death. Transformers.
#чтивонаночь Как учить модели правильно? сколько эпох ставить на вики? Почему админ дрочит на data quality? Ответы на эти и не только вопросы в обзоре - Physics of Language Models: Knowledge Capacity Scaling Laws teletype arxiv для любознательных
Стоит ли дальше писать на русском или забить и писать на английском ?

Хз ощущение будто статьи на русском про нейронки читать особо некому
👍9735🥴15👎8🤡75😢4💋3🔥2😁2🤔1
Uni-MoE: Scaling Unified Multimodal LLMs with
Mixture of Experts


- У нас есть 4o дома.
- 4о дома.

Китайская MoE про то как через latent по образцу Llava сунуть все модальности в трансформер и радоватся. Так и живем

папер
😁38👍7🔥21
Завтра экзамен по феменизму, если я приду в костюме senior ds мне зачтут?
😁20🥴7🔥1
😁77💯5👍4👎42🤔1
69💯1710🔥81👏1🤔1🤡1
очень тихо microsoft зарелизи copilot в телеграмме, нужен не русский номер кажется.

Можно скинуть любой не русский номер и будет рабоатть

блогпост
@CopilotOfficialBot
🤡59🔥932😍1
👾66😁24💯246🤪54
Klapphülle mit magnetischer Befestigung короче говоря флипкейс магнитый
144👎3💩2👍1👏1
каждый светлячок однажды перестает святить. Беригите моменты с близкими.
😢24737💔18🥴5👍3🤔3
ой, да ладно вам выдумывать, какой еще man in finance, trust fund, 6.5, blue eyes?
забыли, где живете? у нас только юрфак, пахан намутил еще на приватизации, сын теперь кайфует, 180, карие глаза, лв авеню, лорики, пятерка в м-пакете, кофемания, лавандовый раф в мгимо
😁47🤡116💊4
ой, да ладно вам выдумывать, какой еще research in ai aligment, faang, 600k/year, 10hi, 1000 h100?
забыли, где живете? у нас только мехмат, пахан препал еще на матмехе, сын теперь работает в сбере, публикации в скопусе , 35k/year а понтов на все 200, 1v100 16gb на коллабе, 10hi на классификации пяток носорога
😁112😢86👍5💊1
Grokked Transformers are Implicit Reasoners:
A Mechanistic Journey to the Edge of Generalization


Ну я кластер забыл выключить, 10**5 cтепов пробежали, ну теперь статью напишем


Сетап экспа:
- Берем пары фактов вида: "Женя любит члены" и "те кто любят ai safety любят члены".

И проверяем на генерализацию факта - женя любит ai safety.

ID generalization - старые правила. Тут все хорошо, трейн сет выучен успешно, около 1 точность.

OOD - out of domain генерализации не произошло, новых фактов модель выводить не может.

Трагического прироста от роста размера модели не произошло.


папир
🎉45😁16🤡7👎331👍1🔥1👏1💩1
что оно обновило одному ктулху известно
49🤔4👍31😁1
Love. Death. Transformers.
Релиз 5.* вихря Арена на этих данных. Релиз арены выйдет ДАННЫЕ УДАЛЕНЫ апвотить папир тут модель если вы случайно богатый дон или компания с кучей лишних карт - мы ждем вас @transformerslovedeatch Авторы: @nlpwanderer @mlunderground
Короче, я решил угореть и сделать из 5.2 энкодер.
0 слой я не трогал, а вот следующие решил подвигать и перебрать.

Зачем?

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Нам было весело.

В обещем идея простая - отставил первые три слоя + embedings, получился 900м обрезок который ну чуть больше e5 large, без контрастива где то около FredT5 large по Encodechke. Зачем вам эта информация? я хз, у меня были свободные часы в воскресенье

модель на хф
🔥38👍107