Я ненавижу Т9 и автоподсказки. Машина, чей-то чужой алгоритм додумывает за тебя. Пытается усреднить твою речь до уровня сборного образа среднестатистического человека, которого и не бывает в природе. Особенно, если хочется донести мысль точно: приходится использовать низкочастотные слова, которые программа заменяет на высокочастотные. "Она дообучается ", можете сказать вы. Ну и получается в итоге "Б*я" вместо "Юля". Вот и все обучение. Иногда лучше совсем не учить, чем вот так.
Но я настолько криво попадаю пальцами в кнопки телефона, что побеситься от автозамены кажется всё ещё меньшим злом, чем то самое "Б*я", написанное собственноручно. Еще и с кучей опечаток
А какие "полезные" функции бесят вас?
Но я настолько криво попадаю пальцами в кнопки телефона, что побеситься от автозамены кажется всё ещё меньшим злом, чем то самое "Б*я", написанное собственноручно. Еще и с кучей опечаток
А какие "полезные" функции бесят вас?
😁3💯1
Ах, ну да: с Новым годом!🎄🎄🎄😁
Итоги подводить совершенно не хочется. Но насколько мог быть хорошим год, он был.
Желаю всем, чтобы и в новом 2025 году все было так же, только ещё и превзошло все ожидания.
Ура!
Итоги подводить совершенно не хочется. Но насколько мог быть хорошим год, он был.
Желаю всем, чтобы и в новом 2025 году все было так же, только ещё и превзошло все ожидания.
Ура!
🎉5
Плюсы долгого найма:
- есть время подумать, идти ли на это место работы
Минусы долгого найма:
- есть время подумать, идти ли на это место работы
😁
- есть время подумать, идти ли на это место работы
Минусы долгого найма:
- есть время подумать, идти ли на это место работы
😁
💯2😁1
Сегодня приняла участие в открытии Цифрового Марафона - всероссийском конкурсе по цифровым навыкам от Сбера.
https://www.sberbank.com/it-marathon
https://www.sberbank.com/it-marathon
👍4
Forwarded from Всеволод Викулин | AI разбор
Китайцы выложили в опеснсорс аналог o1
DeepSeek R1 - опенсорс рассуждающая модель, которая по математике/логическим задачам/программированию идет вровень с o1 моделью от OpenAI.
Многие видели новость, а я расскажу, что вам важно знать. Технический репорт DeepSeek-R1 можно прочитать тут.
1) Это очень очень круто. И метрики круто, и опенсорс круто. Это еще раз доказывает: невозможно защититься от конкурентов с помощью ноу-хау. Знания очень быстро распространяются: o1 вышла в сентябре и уже в январе ее догнали. Защищаться проще с помощью инфраструктуры, и тут Альтман всех обскакал: 500 миллиардов от Трампа помогут защититься. Еще и такая крыша.
2) Это круто, но не факт, что круто для вас. Метрики на математике/умению играть в пятнашки/разгадывать судоку ничего не говорят о том, что эта модель полезна для вашей задачи.
Авторы могли просто забыть положить в обучение нужные вам примеры. Им все равно, зато в пятнашки они впереди планеты. Не верьте статьям, всегда проверяйте на своих метриках.
3) На самом деле, крутость совсем в другом. В тех. репорте показали, что из очень дорогой DeepSeek-R1 с помощью дистилляции можно получать небольшие модели, вплоть до 1.5b, которые лучше огромной GPT-4o.
Как это работает: большая модель генерирует длинные цепочки рассуждений, а маленькая модель учится на таких цепочках рассуждений, подражая оригиналу. Это как раз пример обучения на синтетических данных, о которых говорил месяц назад Суцкевер. Про эту особенность говорят очень мало, но она очень важная. Каждое новое поколение рассуждающих моделей дает дорогу следующему поколению более дешевых. Поэтому o3-mini будет намного дешевле o1, потому что скорее всего сдистилирована из нее.
Думаю, у OpenAI уже есть более мощные модели. Просто они их не выкладывают, а обучают с их помощью уже известные нам o1 и o3.
Дистилляция моделей стандарт, чтобы уменьшить стоимость предсказания. Китайцы нам еще раз это показали. Как дистилляцию правильно делать, чтобы в 10 раз удешевить модель, я расскажу уже в следующих постах.
DeepSeek R1 - опенсорс рассуждающая модель, которая по математике/логическим задачам/программированию идет вровень с o1 моделью от OpenAI.
Многие видели новость, а я расскажу, что вам важно знать. Технический репорт DeepSeek-R1 можно прочитать тут.
1) Это очень очень круто. И метрики круто, и опенсорс круто. Это еще раз доказывает: невозможно защититься от конкурентов с помощью ноу-хау. Знания очень быстро распространяются: o1 вышла в сентябре и уже в январе ее догнали. Защищаться проще с помощью инфраструктуры, и тут Альтман всех обскакал: 500 миллиардов от Трампа помогут защититься. Еще и такая крыша.
2) Это круто, но не факт, что круто для вас. Метрики на математике/умению играть в пятнашки/разгадывать судоку ничего не говорят о том, что эта модель полезна для вашей задачи.
Авторы могли просто забыть положить в обучение нужные вам примеры. Им все равно, зато в пятнашки они впереди планеты. Не верьте статьям, всегда проверяйте на своих метриках.
3) На самом деле, крутость совсем в другом. В тех. репорте показали, что из очень дорогой DeepSeek-R1 с помощью дистилляции можно получать небольшие модели, вплоть до 1.5b, которые лучше огромной GPT-4o.
Как это работает: большая модель генерирует длинные цепочки рассуждений, а маленькая модель учится на таких цепочках рассуждений, подражая оригиналу. Это как раз пример обучения на синтетических данных, о которых говорил месяц назад Суцкевер. Про эту особенность говорят очень мало, но она очень важная. Каждое новое поколение рассуждающих моделей дает дорогу следующему поколению более дешевых. Поэтому o3-mini будет намного дешевле o1, потому что скорее всего сдистилирована из нее.
Думаю, у OpenAI уже есть более мощные модели. Просто они их не выкладывают, а обучают с их помощью уже известные нам o1 и o3.
Дистилляция моделей стандарт, чтобы уменьшить стоимость предсказания. Китайцы нам еще раз это показали. Как дистилляцию правильно делать, чтобы в 10 раз удешевить модель, я расскажу уже в следующих постах.
huggingface.co
deepseek-ai/DeepSeek-R1 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
👍2
https://youtu.be/x7aEtIEWBTE?feature=shared
Это великолепнейшая книга для малышей, показывающая, что такое специальная теория относительности.
Мне кажется, ценность таких знаний во многом в том, что когда про это всё читаешь/смотришь, понимаешь, что люди это изучают, как-то стыдно становится делать всякую хтонь.
Это великолепнейшая книга для малышей, показывающая, что такое специальная теория относительности.
Мне кажется, ценность таких знаний во многом в том, что когда про это всё читаешь/смотришь, понимаешь, что люди это изучают, как-то стыдно становится делать всякую хтонь.
YouTube
General Relativity for babies | Chris Ferrie
Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube.
👍2