Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Forwarded from DL in NLP (Vlad Lialin)
Improving Image Generation with Better Captions
cdn.openai.com/papers/dall-e-3.pdf

Внезапно, OpenAI выложили статью (не model card) с описанием куска DALL-E 3.

Главная цель — улучшить prompt following. Решили что проблема на самом деле в качестве датасета. После чего натренировали хорошую систему для imagine captioning на основе LLM и сгенерировали очнь подробные описания картинок из датасета. Финальный тренировочный датасет состоял на 95% из псевдооейблов.

Деталей про саму тренировку DALL-E 3 мало, только лишь сказали что детали заметно отличаются от DALLE-2. Хотя бы не было лицемерного «это все для вашей безопасности» в этой части статьи.
🏆13❤‍🔥31👍1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
РАЗМЕТКА LLAVA РАЗМЕТКА LLAVA РАЗМЕТКА LLAVA AAAAAAA


вы блять не знаете какая хуйня в лайоне лол)))


cлед шаг - типы будут учиться на синте. Скриньте
👎25🤡15🥴13👍5🥰42🔥1
А чо не 1000-7, чо так мало то
🥴27🤡6
Привет!
Мы в Тинькофф активно занимаемся созданием больших языковых моделей по типу ChatGPT и продуктов на их основе. Для этого мы открываем набор в отдел AI-тренеров!
AI-тренеры – команда людей, которая занимается созданием эталонных примеров для обучения языковой модели, и напрямую определяет то, как в конечном счете будет вести себя нейросеть.

Сейчас мы ищем людей на две вакансии: AI-тренер и Шеф-редактор .

В задачи AI-тренера входит написание, редактирование и оценка текстов. Для координации работы команды AI-тренеров мы ищем шеф-редакторов. В обязанности шефа входит разработка инструкций и методик обучения, а также тесное взаимодействие с нашими инженерами и менеджерами продукта.

Релевантным опытом для этих вакансий будет любая работа с текстом: редакторство, копирайтинг, журналистика.

Откликнуться и подробнее прочитать про вакансии можно тут: AI-тренер и Шеф-редактор.
🤡125🥴19👍12🤮841
Хороший мини-курс по лингвистике для NLPшников недавно выпустила Лиза Былинина: bylinina.github.io/ling_course.

Зачем эта наука нам вообще нужна? Не столько даже для того, чтобы решать задачи с её помощью, а чтобы правильно задачи ставить и описывать проблемы.
Для меня в последний год, когда я много работаю с языками, которых не понимаю, это особенно важно: нужен понятийный набор, чтобы адекватно такие языки обсуждать.

Поэтому - рекомендую.
👍2781👎1
Привет! Приходите к нам на онлайн-встречу

Дата: сегодня!
Время: 17:00 по московскому времени

Спикеры — Лёша Палецких и Наташа Мартемьянова из HR-агентства Luna Park (@hrlunapark), которое специализируется на поиске лучших талантов и работает с AI safety организациями (а Лёша ещё занимался safety исследованиями под руководством Виктории Краковны из Deepmind!)

Тема встречи: "AI safety — безопасность искусственного интеллекта"

О чем будем говорить:

🔸Какие риски сопряжены с развитием искусственного интеллекта
🔸Почему создание безопасного искусственного интеллекта — задача нетривиальная
🔸Где можно получить дополнительную информацию и углубиться в тему

Подключайтесь к нам в субботу, 21 октября, в 17:00 по московскому времени!

трансляция будет в телеграм @betterdatacommunity
👍19🤡15🔥4🥴2
Через двадцать минут поговорим про то почему LLM нас скорее всего (не) убьют!
23👍75🤡3😁1
🙉36😁27🍌53👍1🤯1💯1
#чтивонаночь по быстрому

Если ресерч не избежен, ресерчить надо первым.

Pixart-alpha aka dalle3 для нищих

Если вы сталкивались с претреном диффузий то знаете словосочетание laion - залупа коня. Почему? Потому что это стянутые картинки и captionы со скрауленных картинок. Те это не всегда их оригинальные подписи даже (!).
В связи с этим качество данных мягко говоря низкое.

Решение есть и оно очень простое: нам нужен smart enough captioner который может нагенерировать синтетических кэпшенов которые на несколько порядков лучше!


Авторы pixart сделали следующую схему: latent diffusion трансформер(спасибо за поправку) + T5 3b (таким кстати в начале должен был быть deepfloyd if) и самый простой kl vae на выходе.
А для данных они нагенерировали синты из llava1(рано или поздно напишу обзор), получили 0.025В очень чистых банных и обучили 600м диффузию которая лучше чем 4В dalle2, 1.5b sd1.5 !
При этом обучение стоит всего 650а100 часов, что ОЧЕНЬ дёшево, для сравнения у sd1.5 было в 10 раз больше

GitHub
Project page
👍344
разница сходимости на синт и не синт кэпшенах

peach-donkey - run на синте
🤯25🫡10👍7
дропаем сет синты и кандинского обученного на сете синте?

(чем занимается админ пока его пытаются призвать на срочку)
🌚32😢15🫡7👍6😱41😁1
борьба с тревожностью категории: /ldt

я слегка не спал последнию ночь и сидел ковырялся, взял маленький сабсет(2к картинок), разметил его llava_ой, а потом прогнал синту через gpt4.
Теперь k2.2 умеет нескольких персонажей в кадре генерить
🔥434
Forwarded from qtasep 💛💙
Итак, я дописал полезное

https://lpetrov.cc/AI-math/

...Прошел примерно год с тех пор, как я заинтересовался интеграцией AI в свои рабочие процессы (на несколько месяцев опередив хайп вокруг GPT-4). Со временем я внедрил несколько процессов в области преподавания и исследований, и заметно ускорил выполнение многих рутинных задач.

Содержание поста - в картинке, и как видно, приложения AI у меня довольно разнообразные. Что еще посоветуете попробовать?
32👎9🔥2
что ты сделал для хипхопа в свои годы?
что ты сделал для llm в свои годы?
51🤓15🤡10
🤣117🤔21🔥14😢4😁3👎1
😁67🌚8👏5💯5❤‍🔥421
🌚33🤣2910👍3😁2🦄2
#чтивонаночь

Давно собирался рассказать про самый интересный папир среди text-image contrastive моделей.
Ребята учат за день 400м модель которая лучше чем модель которая училась месяц, так еще и outperform_ят 5B модели.


Sigmoid loss for Image-Text Pt дамы и господа длиннопост

paper
github
🔥374❤‍🔥1👍1🎉1