Узник замка else – Telegram
Узник замка else
120 subscribers
235 photos
19 videos
1 file
58 links
Блог о жизни разработчика-нейропсихолога.

Наши приложения (ищите ссылки в закрепе):
⌨️ адаптивная клавиатура
🟢 жетоны
💫 тренажёр для развития речи

Делаем стартап в реальном времени, пусть и оооочень медленно
Download Telegram
Я ненавижу Т9 и автоподсказки. Машина, чей-то чужой алгоритм додумывает за тебя. Пытается усреднить твою речь до уровня сборного образа среднестатистического человека, которого и не бывает в природе. Особенно, если хочется донести мысль точно: приходится использовать низкочастотные слова, которые программа заменяет на высокочастотные. "Она дообучается ", можете сказать вы. Ну и получается в итоге "Б*я" вместо "Юля". Вот и все обучение. Иногда лучше совсем не учить, чем вот так.
Но я настолько криво попадаю пальцами в кнопки телефона, что побеситься от автозамены кажется всё ещё меньшим злом, чем то самое "Б*я", написанное собственноручно. Еще и с кучей опечаток
А какие "полезные" функции бесят вас?
😁3💯1
Ах, ну да: с Новым годом!🎄🎄🎄😁
Итоги подводить совершенно не хочется. Но насколько мог быть хорошим год, он был.
Желаю всем, чтобы и в новом 2025 году все было так же, только ещё и превзошло все ожидания.
Ура!
🎉5
Плюсы долгого найма:
- есть время подумать, идти ли на это место работы
Минусы долгого найма:
- есть время подумать, идти ли на это место работы
😁
💯2😁1
Сегодня приняла участие в открытии Цифрового Марафона - всероссийском конкурсе по цифровым навыкам от Сбера.
https://www.sberbank.com/it-marathon
👍4
Отдельно приятно встретить знакомые лица: на фото - лид клуба по психологии от Школы 21, Денис.
А ещё мы вместе работаем с детьми с аутизмом. Вернее, я раньше работала в центре, где Денис - директор.
Хвалилась сегодня и похвалюсь ещё раз, что Денис пришёл в Школу по моей наводке😏
👍6
А как вы в своих проектах и жизни в целом используете ИИ?
Китайцы выложили в опеснсорс аналог o1

DeepSeek R1 - опенсорс рассуждающая модель, которая по математике/логическим задачам/программированию идет вровень с o1 моделью от OpenAI.
Многие видели новость, а я расскажу, что вам важно знать. Технический репорт DeepSeek-R1 можно прочитать тут.

1) Это очень очень круто. И метрики круто, и опенсорс круто. Это еще раз доказывает: невозможно защититься от конкурентов с помощью ноу-хау. Знания очень быстро распространяются: o1 вышла в сентябре и уже в январе ее догнали. Защищаться проще с помощью инфраструктуры, и тут Альтман всех обскакал: 500 миллиардов от Трампа помогут защититься. Еще и такая крыша.

2) Это круто, но не факт, что круто для вас. Метрики на математике/умению играть в пятнашки/разгадывать судоку ничего не говорят о том, что эта модель полезна для вашей задачи.
Авторы могли просто забыть положить в обучение нужные вам примеры. Им все равно, зато в пятнашки они впереди планеты. Не верьте статьям, всегда проверяйте на своих метриках.

3) На самом деле, крутость совсем в другом. В тех. репорте показали, что из очень дорогой DeepSeek-R1 с помощью дистилляции можно получать небольшие модели, вплоть до 1.5b, которые лучше огромной GPT-4o.

Как это работает: большая модель генерирует длинные цепочки рассуждений, а маленькая модель учится на таких цепочках рассуждений, подражая оригиналу. Это как раз пример обучения на синтетических данных, о которых говорил месяц назад Суцкевер. Про эту особенность говорят очень мало, но она очень важная. Каждое новое поколение рассуждающих моделей дает дорогу следующему поколению более дешевых. Поэтому o3-mini будет намного дешевле o1, потому что скорее всего сдистилирована из нее.

Думаю, у OpenAI уже есть более мощные модели. Просто они их не выкладывают, а обучают с их помощью уже известные нам o1 и o3.

Дистилляция моделей стандарт, чтобы уменьшить стоимость предсказания. Китайцы нам еще раз это показали. Как дистилляцию правильно делать, чтобы в 10 раз удешевить модель, я расскажу уже в следующих постах.
👍2
https://youtu.be/x7aEtIEWBTE?feature=shared
Это великолепнейшая книга для малышей, показывающая, что такое специальная теория относительности.
Мне кажется, ценность таких знаний во многом в том, что когда про это всё читаешь/смотришь, понимаешь, что люди это изучают, как-то стыдно становится делать всякую хтонь.
👍2
Вот вам мемасиков