Data Secrets – Telegram
Data Secrets
78.8K subscribers
6.43K photos
669 videos
20 files
2.71K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь любимый мем админа
😁7265🔥8👍53👏3🤪3🌚2
Forwarded from XOR
This media is not supported in your browser
VIEW IN TELEGRAM
40 лет развития Boston Dynamics за полторы минуты.

@xor_journal
🔥74👍145👏1🤯1🤨1
Apple переманивает десятки инженеров из Google для своего ИИ-проекта

По данным FT, в последнее время Apple массово расширенияет подразделения по ИИ и ML. Больше всего новых сотрудников пришли из Google (речь идет о десятках).

Самым значимым стал переход главы лаборатории ИИ Google Brain Джона Джаннандреа, который пришел на руководящую должность в Apple. Затем его примеру последовали не менее 36 инженеров Google.

Вот такая нынче реальность, борьба БигТеха идет не за их выбор пользователем, а за выбор их компании разработчиками.
🤯44🔥17👍6🤩21
Внимание: градиентный спуск
😁24036👍22🦄5🗿4🤯2
Google подружили Gemini с медициной

Вчера вышла новая статья от исследователей из Google, в которой они файнтюнят свою LLM для медицинских задач. Кстати, в ней 71(!) соавтор.

Файнтюнили на датасете, схожем с Med-PaLM2, но с добавлением self-training с поиском. Идея:
1) просим модель сгенерировать поисковой запрос по вопросу, иначе говоря "загуглить" то, что у нее спрашивают
2) на основе результатов запроса генерим с помощью модели цепочки мыслей
3) фильтруем ложные цепочки, а на остальных дообучаем модель
4) с дообученной моделью возвращаемся к пункту №1

Итеративные алгоритмы сбора данных сейчас в моде, это исследование не стало исключением. Еще ученые прикрутили поиск с учетом неопределенности и дополнительную генерацию запросов для решения конфликтов среди ответов модели.

Конечно же, Med-Gemini выбила SOTA. Результат: 91% на MedQA. Обратите внимание: это всего на 1п.п. лучше GPT-4, который специально не файнтюнился под медицину. Кроме того, стоит отметить, что MedQA - классический, но далеко не лучший бенчмарк для оценки такой модели (исследование).
👍42🔥10😁62
Data Secrets
Новости о дикой погоне за AI-специалистами на Google не заканчиваются. В последнее время отовсюду так и сыпятся подобные истории. Например Цукерберг, в отличии от Брина, сотрудникам с мольбами остаться еще не звонит, НО хантинговые емейлы уже пишет. Кстати…
Продолжается дикая погоня за ИИ-специалистами. На этот раз новости из Apple.

Как мы уже слышали, за 10 лет Apple скупила около 20 ИИ-стартапов, в первую очередь из-за людей. В том числе корпорацией выкуплены FaceShift, Fashwell, Emotient и другие.

Но это не все. Оказывается, Apple активно хантит сотрудников Google. С 2018 они переманили как минимум 36 топовых специалистов.

И еще одна интересная деталь: Apple рекламирует свои вакансии с работой из двух офисов в Цюрихе. При этом об одном из них неизвестно вообще ничего, на карте его нет и даже люди, живущие по соседству, не знают о его существовании.

Только секретных лабораторий нам не хватало…
33🤯20🌚10😁4👍2
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️

В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.

А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.

KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.

Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.

И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.

Статья | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
145🔥55👍32🤯4🏆2👨‍💻1
Тот самый тимлид, у которого список статей размером с Войну и Мир и PhD в 19
😁114🔥12😨11🦄411🎉1
Data Secrets
iPhone? – прошлый век. Встречайте: AiPhone! Такое изобретение показали на выставке CES 2024. В его основе – Rabbit OS на голосовом управлении, которая сама рулит всеми программами: может заказать еду, вызвать такси и еще много всего. Что-то вроде супер-умной…
История про гениев маркетинга 😂

Помните тот милый оранжевый девайс Rabbit R1 с ИИ? Напоминаем: это что-то вроде супер-умной карманной голосовой станции. В его основе – Rabbit OS на голосовом управлении, которая сама рулит всеми программами: может заказать еду, вызвать такси и еще много всего.

Так вот. Когда создатели рассказывали про изобретение три месяца назад, они утверждали, что операционка Rabbit OS уникальна, такой вообще нигде нет и в ней сила. Тогда даже никому не пришло в голову проверить.

А сейчас выяснилось, что никакой уникальности нет. Милый кролик основан на немного подшаманеной Android. Это означает, что систему можно установить на смартфон, и функционировать она при этом будет точно так же.

Вот такой анекдот.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁64👍138🤯2🍌1🤓1
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман: «GPT-4 это самая глупая из моделей, которую вам предстоит использовать».


Такой нескончаемый хайп вокруг новых моделей OpenAI кончится либо тем, что GPT-5 будет шокирующе хороша, либо тем, что словам Альтмана больше никто не поверит.

Надеемся на первый вариант 😕
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7718🔥7🤔7👀5
Привет всем тем, кто хотел поглубже познакомиться с новым хайповым KAN, но осилить статью на 50 страниц с формулами не сумел

Для вас, любимые подписчики, мы менее чем за сутки с момента выхода статьи написали на нее обзор! В нем вы найдете:

– Легкое и непринужденное объяснение теоремы Колмогорова-Арнольда
– Ответ на вопрос «а почему до этого раньше никто не додумался?»
– Объяснение архитектуры KAN на пальцах
– Сравнение KAN с перцептроном
– Туториал по запуску KAN из коробки на Python

Прочитать разбор можно на нашем сайте: https://datasecrets.ru/articles/9
🔥12626👍17🤯7😎3🗿2
Да, мы запускаем сайт Data Secrets!

Там мы будем публиковать еще больше новостей, статей, разборов, полезных материалов, туториалов... В общем, все, что только может быть нужно Data Scientist'у.

Для нас это большой шаг в развитии проекта. Мы надеемся, что теперь будем вносить еще больший вклад в сообщество.

В знак поддержки принимаются 🔥
🔥65942👍24🤯12🗿10🤨7👏2🐳2😨2🎄2
Качки 🤝 математики

А какой сегодня ты? 😎🤓
🤓93😎40👍123🤝3
OpenAI, возможно, скоро выйдут на рынок с собственным поисковиком. Работать будет на основе GPT, конечно же. Движок будет анализировать источники, уточнять информацию и составлять на основе всего это суммаризированный ответ.

Такой опыт для OpenAI не первый. Прошлым летом они уже внедрили в своего бота ответ на базе поиска в Bing, то есть полноценный сёрчер станет просто расширением уже существующей технологии.

Сочувствуем акциям Google
👍529🔥8🤯5🦄2
Как собрать свой GPU с нуля за две недели, не имея никакого опыта:

Шаг 1: Изучить фундаментальную теорию устройства GPU
Шаг 2: Разработать собственную архитектуру GPU
Шаг 3: Написать собственный низкоуровневый язык для своей GPU
Шаг 4: Написать на этом языке два мат.ядра
Шаг 5: Забилдить GPU в Verilog и запустить ядра
Шаг 6: Спроектировать микросхему и верифицировать ее в OpenLane EDA
Шаг 7: Вы великолепны


Если вы подумали, что мы сошли с ума, то (пока еще) нет. Это реальная история инженера по имени Адам Маджмудар. Он действительно с нуля, без опыта проектирования GPU, за две недели разработал мини-видеокарту.

Полное описание всех этапов разработки можно найти в репозитории или в треде на X.

Вы знаете, что делать.
😁76🔥30🤯19👍1510🍌3
Вы просили постоянную рубрику «что почитать на выходных». Что ж, чего не сделаешь ради подписчиков: советуем любимую книгу админа
😁145🗿24🔥12🤓94🙈2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Лучший подарок другу дата сайентисту

Это 👆 доска Гальтона. Она состоит из набора штырьков, о которые случайно отталкиваются засыпанные сверху мелкие шарики. Каждое столкновение шарика со штыком – это испытание Бернулли (отлетит влево или вправо).

Симметричное построение доски Гальтона обеспечивает удивительное: при достаточно небольшом количестве рядов препятствий биномиальное распределение в соответствии с центральной предельной теоремой становится нормальным гауссовским колоколом.

Случайности не случайны.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥140👍21🤯149🤔2
Помните, недавно в США образовался новый совет по безопасности использовании ИИ, в котором нет ни одного человека из опенсорса? Туда пригласили представителей OpenAI, Microsoft, Nvidia, Adobe, IBM, владельцев мелких авиалиний (?) и еще много-много мало относящихся к ИИ людей. А вот Цукерберга, Лекуна и Маска на фан-встречу не позвали.

Случайность? Вряд ли. Буквально на днях по Твиттеру разлетелась схема, которую нарисовал один влиятельный дядя инвестор. По его мнению это то, что на самом деле происходит за кулисами спектакля «регуляризация ИИ».

Именно так крупные игроки сосредотачивают власть над технологией в своих руках и, что главное, избавляются от опенсорс конкурентов. А от реальной регуляризации тут одно слово.
🤔75👍238🤨4🕊1