Свидетели Градиента – Telegram
Свидетели Градиента
488 subscribers
128 photos
29 files
61 links
Этот канал предназначен для общения и обсуждений среди тех, кто как и я, хочет видеть что происходит под капотом у нейросетей, и старается развивать интуицию об их природе и свойствах.

Для связи: @kraidiky
Download Telegram
Forwarded from Reliable ML
1 июня – Online - Career & Reliable ML - Data Fest 2025
Программа онлайн-дня Reliable ML

В это воскресенье с 10 утра в spatial.chat будем не только показывать, но и обсуждать красивое и интересное:

- В секции Career узнаем про то, как прокачать софт-скиллы, и какие LLM-тулы использовать, чтобы найти работу и зарплату мечты. Разовьем тему в то, какие компетенции нужны для прокачки в тимлидстве.

- В секции Reliable ML поговорим про организацию процессов в DS и ML-Readability.

Публикуем финальное расписание на 1 июня.

Ждем вас в spatial.chat. Пароли, явки, адреса опубликуем в канале перед стартом секции.

До встречи!

Ваш @Reliable ML

#datafest #reliable_ml #career #online
2
https://vk.com/video-22522055_456245617
Оказывается из нашего зала таки была трансляция и вот тут доклад можно посмотреть в кратком виде на 3:49:00. Презентацию и полный доклад выложу завтра после онлайна.
👍11
6_Голощапов_Владислав_Ландшафт_loss_функции_не_такой,_как_мы_привыкли.pptx
217.9 MB
Презентация. Я потом ещё один-два слайда добавлю и перевыложу. Весит безобразно много потому что в неё видео вшито. Видео потом тоже выложу уже отдельно.
🔥11
Минутка юмора:

Преимущество - полное отсутствие такой информации в трейне. Схема анализа придумана мной на основе обдумывания проблемы, обсуждения с другими людьми, и чатГпт и дипсик утверждают, что в учебных выборках и интернете они такого не встречали. :) Хотя оба высказали свои версии о том, на чьих работах я основывался. Поржал.
😁6
https://colab.research.google.com/drive/13YuGiBu0qtnz-wCWfe6sGo9fxSQmY2Uh?usp=sharing

А вот и ноутбучёк чтобы поиграть страшной-страшной ночью в тёмной-тёмной програмистской берлоге...
🔥11👍2
Если я через пару недель устрою онлайн-посиделки по мотивам доклада, на которые придёт те, кто с ноутбуком поигрались, обсудить свои наблюдения:
Anonymous Poll
29%
Попробую руками и приду в онлайн обсудить
44%
Сам пробовать не буду, но хочу послушать
0%
Не очень интересно, потому что не практично
27%
Не до того...
Спасибо всем указавшим на лажу. Я, к сожалению не догадался заскринить комментаторов прежде чем снести пост, поэтому поблагодарить всех лично не могу, а благодарить только часть, кого узнал по аватарке считаю не честным, так что просто вы сами знаете, кому спасибо.
5🔥1
Итак, длинные выходные закончены. Кто-то отдыхал, а для кого-то это наоборот возможность поэкспериментировать. И я предлагаю собраться обсудить всякое про поведение оптимизаторов на тонельном ландшафте. Но непонятно когда это удобнее делать нашим соучастникам. В будний день, например вечером в пятницу, или в выходные, например в субботу.

UPD: Для тех, кто успел повозиться с ноутбуком или ещё какими-то экспериментами первые два варианта голосования, для тех кому интрересны результаты, а не процесс - вторые.
Ну, поскольку единственный человек кроме меня, кто что-то сам попробовал, проголосовал за пятницу, значит собираемся в пятницу. Итак в эту пятницу я объявляю семинар, даже можно сказать ритуал, посвящённый изучению как ландшафта функции потерь, так и поведению оптимизаторов на более правдоподобной модельной задаче. Начало в 18 чтобы точно никого начальник не поймал за хвост, если у единственного попробовавшего, не будет предложений. Подробную информацию куда присоединяться кину ближе к делу.
6👍3
Запустил трансляцию в телеграмме
🔥1
Я случайно кого-то удалил, перезайди, плз
😁3
Live stream finished (1 hour)
Forwarded from Vlad Goloshchapov
Мдааа.... Пока я мечтал выделить время на то чтобы грокнуть и попрунить четвёртый мобайлнет уже пятый вышел...
😢42
А вы когда-нибудь задумывались, что дистиляция из другой модели это ещё и способ избавиться от большой части ошибок разметки?
🤔3
Сегодня будет "за вообще". Каждый день езжу мимо огромного плаката постановки "Цветы для Элджернона", и сегодня подумалось, а что если это про всё человечество в целом?

Если кто про пустил это литературное произведение - либо почитайте его само, либо сходите в википедию, чтобы не спойлерить. Недавно попадались ржачные комментарии с озона, где читатели ругились, что им продали книжку с кучей граматических ошибок. :)
Ну что, это конечно совсем не то, чего я ожидал увидеть, но мы, исследователи, же питаемся неожиданными результатами. Как говорится, что для одного ошибка эксперимента для другого начальные данные.

Итак, берём, ту же самую нашу задачу, и идём по тоннелю. Не далеко, 1000 шагов всего, четверть пути, потом берём второе направление базиса, то есть направление в котором загибается наш градиент, перпендикулярное стенке каньона, и отходим на какое-то расстояние в сторону, loss при этом, конечно, драматически портится, и делаем 20 серий шагов углового алгоритма, как и в докладе, за группу не больше 10 градусов накопленного изменения угла и не больше 200 элементарных шагов. По идее этого достаточно чтобы спуститься в соседний тоннель (ну или в другую часть нашего каньона сильно выше или ниже, например, в другой плоскости). И сравниваем с результатами тех же двадцати серий по дну тоннеля. Каждый цвет - один эксперимент. Прыгнули в сторону и спустились куда-то. Смотрим куда. Там, куда спустились - измеряем ширину тоннеля, то есть на сколько надо отойти в сторону этого самого второго вектора базиса чтобы loss испортился на 5%.

1) Вопреки моим ожиданиям, другие тоннели (или другие месте каньона), в целом не лучше и не хуже того, который мы покинули, примерно та же фигня по глубине и по ширине. Слегка шире только те, в которых loss хуже, то есть те случаи, когда мы до дна чуть-чуть не дошли.
2) определение расстояния хромает, к сожалению, поэтому после того как мы на дно выходим кажется что алгоритм убегает в бок. Это, на самом деле не вполне корректно, потому что первый шаг сравнивается с первым без отступа, второй со вторым и так далее. Но тот, что без отступа по дну каньона успевает убежать. Короче трудно придумать как бы это получше визуализировать.
3) В соответствии с моими ожиданиями, возвращение в тоннель происходит супер-стремительно. То есть всего 20 серий и мы уже в тоннеле той глубины, до которой пришлось 1000 серий идти до этого. Даже если сеть была довольно сильно разрушена, то есть лосс с 1.8 скакнул до 7.

P.S. Это в плоскости поворота такой профиль. Ещё посмотрю как там картинка по направлению вверх и в случайном направлении. Но вряд ли там будет что-то принципиально отличное.
P.P.S. Положительное направление это в сторону разворота - почему-то там стенка круче, я бы скорее предполагал обратную ситуацию. Но может оно на 1000-ном шаге будет так, а на 2000-ом по другому. Надо пробовать в других местах и сравнивать.
P.P.P.S. А я, оптимист, надеялся этот слайд к докладу успеть. Ну-ну...
🤔5
А вот если взять третий вектор базиса, который ортогонален первым двум и в направлении которого тоннель на минимум порядок медленнее, то картинка получается ещё краше:
🤔2😍1