⚡️ Samsung подтвердила, что к концу 2026 года 800 миллионов устройств будут работать под управлением Google Gemini.
> К концу 2025 года 400 миллионов устройств будут продаваться с Gemini на борту.
> эта цифра удвоится до 800 млн в этом году
> Со-генеральный директор Samsung:
Google все активнее захватывает рынок.
https://www.reuters.com/world/china/samsung-double-mobile-devices-powered-by-googles-gemini-800-mln-units-this-year-2026-01-05/?utm_source=braze&utm_medium=notifications&utm_campaign=2025_engagement
> К концу 2025 года 400 миллионов устройств будут продаваться с Gemini на борту.
> эта цифра удвоится до 800 млн в этом году
> Со-генеральный директор Samsung:
«Это дает Google преимущество перед конкурентами»
Google все активнее захватывает рынок.
https://www.reuters.com/world/china/samsung-double-mobile-devices-powered-by-googles-gemini-800-mln-units-this-year-2026-01-05/?utm_source=braze&utm_medium=notifications&utm_campaign=2025_engagement
👍11🤣8❤4🔥4
🔥 Год ChatGPT Plus бесплатно: экономим 20 000 рублей
Нашли рабочую лазейку в правилах OpenAI.
Вы получаете полноценный аккаунт без лимитов и с доступом ко всем топовым моделям.
Инструкция (займет 2 минуты):
1️⃣ Переходим на сервис временной почты: https://em.bjedu.tech/en/
2️⃣ Важно: в списке доменов выбираем erzi me.
3️⃣ Регистрируем новый аккаунт ChatGPT на этот адрес.
4️⃣ Получаем код подтверждения в почту - готово!
⚡️ Проверили, пока еще работает
Или всегда можно воспользоваться ботом в тг😂
@data_analysis_ml
Нашли рабочую лазейку в правилах OpenAI.
Вы получаете полноценный аккаунт без лимитов и с доступом ко всем топовым моделям.
Инструкция (займет 2 минуты):
1️⃣ Переходим на сервис временной почты: https://em.bjedu.tech/en/
2️⃣ Важно: в списке доменов выбираем erzi me.
3️⃣ Регистрируем новый аккаунт ChatGPT на этот адрес.
4️⃣ Получаем код подтверждения в почту - готово!
⚡️ Проверили, пока еще работает
Или всегда можно воспользоваться ботом в тг
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24🔥14👍10🤣2🌭1
Media is too big
VIEW IN TELEGRAM
Новый Atlas от Boston Dynamics 🤖🏭
Boston Dynamics представила обновлённого **Atlas*, теперь это не исследовательский проект, а робот, который скоро начнёт работать на заводах Hyundai.
Главное:
• создан для массового производства
• интеграция с Gemini Robotics (DeepMind) - понимает среду и задачи
• работает рядом с людьми и другими роботами (Spot, Stretch)
• подключается к MES/WMS системам завода
• 1.9 м рост, 90 кг, 56 степеней свободы
• до 4 часов работы, батарея меняется автоматически
• выдерживает от −20°C до +40°C
Hyundai планирует запустить крупное производство
к 2028 году до 30 000 роботов в год.
Это шаг от демонстраций - к реальной индустрии.
Boston Dynamics представила обновлённого **Atlas*, теперь это не исследовательский проект, а робот, который скоро начнёт работать на заводах Hyundai.
Главное:
• создан для массового производства
• интеграция с Gemini Robotics (DeepMind) - понимает среду и задачи
• работает рядом с людьми и другими роботами (Spot, Stretch)
• подключается к MES/WMS системам завода
• 1.9 м рост, 90 кг, 56 степеней свободы
• до 4 часов работы, батарея меняется автоматически
• выдерживает от −20°C до +40°C
Hyundai планирует запустить крупное производство
к 2028 году до 30 000 роботов в год.
Это шаг от демонстраций - к реальной индустрии.
🔥22❤12👍7
Media is too big
VIEW IN TELEGRAM
Дженсен Хуанг заявил: стойки нового поколения Rubin можно охлаждать водой с температурой 45 °C.
Без дорогих и сложных систем, которые обычно понижают температуру воды.
И рынок сразу отреагировал.
Инвесторы решили, что будущим дата-центрам для ИИ
нужно будет меньше крупных холодильных установок.
Что случилось с акциями:
- Johnson Controls - падение примерно на 11%
- Modine - до минус 21%
- Carrier и Trane - тоже просели
Когда стойки можно охлаждать тёплой водой,
операторы чаще используют простые «сухие» охладители
и другие решения, где не требуется сложное понижение температуры.
Меньше энергии уходит на охлаждение -больше остаётся на вычисления.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16👍7🔥4💔1
🔥 Karpathy выпустил nanochat miniseries v1.
Главная идея: мы не оптимизируем одну конкретную модель, а целое семейство моделей, где качество растёт монотонно вместе с вычислительными затратами. Это позволяет строить реальные scaling laws и быть уверенными, что когда платишь за большой прогон, результат оправдает деньги.
В nanochat был сделан упор на полный LLM-пайплайн. Теперь акцент сместился на предобучение как фундамент интеллекта модели.
После тюнинга гиперпараметров выяснилось, что nanochat отлично следует законам масштабирования и ведет себя как в Chinchilla: оптимальное соотношение параметров и токенов сохраняется. Причем константа у nanochat примерно 8, а у Chinchilla была 20.
Далее была обучена мини-серия моделей d10...d20. У всех чистые, не пересекающиеся кривые обучения. Чтобы сравнить их с GPT-2 и GPT-3, Karpathy использовал CORE score вместо validation loss. В итоге nanochat корректно ложится на ту же шкалу и показывает, что всё движется в правильном направлении.
Стоимость экспериментов примерно 100 долларов за 4 часа на 8×H100. Уже сейчас можно тренировать вычислительно оптимальные модели и улучшать их просто увеличивая compute. А соответствие GPT-2 пока стоит около 500 долларов, но, по мнению автора, можно довести до менее 100.
Полный разбор и код: github.com/karpathy/nanochat/discussions/420
Смысл: масштабирование работает, пайплайн воспроизводим, и дальше всё упирается только в то, сколько вычислений вы готовы включить.
Главная идея: мы не оптимизируем одну конкретную модель, а целое семейство моделей, где качество растёт монотонно вместе с вычислительными затратами. Это позволяет строить реальные scaling laws и быть уверенными, что когда платишь за большой прогон, результат оправдает деньги.
В nanochat был сделан упор на полный LLM-пайплайн. Теперь акцент сместился на предобучение как фундамент интеллекта модели.
После тюнинга гиперпараметров выяснилось, что nanochat отлично следует законам масштабирования и ведет себя как в Chinchilla: оптимальное соотношение параметров и токенов сохраняется. Причем константа у nanochat примерно 8, а у Chinchilla была 20.
Далее была обучена мини-серия моделей d10...d20. У всех чистые, не пересекающиеся кривые обучения. Чтобы сравнить их с GPT-2 и GPT-3, Karpathy использовал CORE score вместо validation loss. В итоге nanochat корректно ложится на ту же шкалу и показывает, что всё движется в правильном направлении.
Стоимость экспериментов примерно 100 долларов за 4 часа на 8×H100. Уже сейчас можно тренировать вычислительно оптимальные модели и улучшать их просто увеличивая compute. А соответствие GPT-2 пока стоит около 500 долларов, но, по мнению автора, можно довести до менее 100.
Полный разбор и код: github.com/karpathy/nanochat/discussions/420
Смысл: масштабирование работает, пайплайн воспроизводим, и дальше всё упирается только в то, сколько вычислений вы готовы включить.
❤20🔥9👍5
Бесплатный курс по Claude Code от Anthropic.
Внутри 15 лекций примерно по часу каждая. Обещают, что за это время ты разберёшься:
• как эффективно управлять контекстом и не «тратить» токены зря
• как расширять Claude Code через MCP-серверы
• как писать собственные хуки
• как подключать GitHub и автоматизировать ревью и рутинные задачи
В конце — дают сертификат вайбкодера, который можно показать маме 😁
Курс - хороший способ быстро понять, как превращать Claude Code из просто помощника в полноценного рабочего инструмента.
https://anthropic.skilljar.com/claude-code-in-action
Внутри 15 лекций примерно по часу каждая. Обещают, что за это время ты разберёшься:
• как эффективно управлять контекстом и не «тратить» токены зря
• как расширять Claude Code через MCP-серверы
• как писать собственные хуки
• как подключать GitHub и автоматизировать ревью и рутинные задачи
В конце — дают сертификат вайбкодера, который можно показать маме 😁
Курс - хороший способ быстро понять, как превращать Claude Code из просто помощника в полноценного рабочего инструмента.
https://anthropic.skilljar.com/claude-code-in-action
❤24👍14🔥7🤣4😁2
💰 BREAKING: у Ильи Суцкевера было $4 млрд акциями OpenAI.
Это всплыло в судебных документах по делу Musk v. OpenAI.
Что стало известно:
- Во время “переворота” в совете директоров в ноябре 2023 COO Брэд Лайткап писал Альтману и Наделле.
- Он оценил, что выкуп долей сотрудников OpenAI обошёлся бы примерно в $25 млрд.
- А если учитывать долю Ильи Суцкевера - уже $29 млрд.
Сам Илья на допросе отказался раскрывать, какой у него пакет.
Судья назначил повторный допрос, потому что его “финансовая заинтересованность напрямую важна” для понимания, есть ли у него предвзятость.
И важный момент:
эти $4 млрд - только то, что уже вестилось.
Сколько было всего - неизвестно.
Если цифра реальная, это один из самых крупных личных пакетов в истории AI-рынка.
Это всплыло в судебных документах по делу Musk v. OpenAI.
Что стало известно:
- Во время “переворота” в совете директоров в ноябре 2023 COO Брэд Лайткап писал Альтману и Наделле.
- Он оценил, что выкуп долей сотрудников OpenAI обошёлся бы примерно в $25 млрд.
- А если учитывать долю Ильи Суцкевера - уже $29 млрд.
Сам Илья на допросе отказался раскрывать, какой у него пакет.
Судья назначил повторный допрос, потому что его “финансовая заинтересованность напрямую важна” для понимания, есть ли у него предвзятость.
И важный момент:
эти $4 млрд - только то, что уже вестилось.
Сколько было всего - неизвестно.
Если цифра реальная, это один из самых крупных личных пакетов в истории AI-рынка.
❤14🔥6👍2🥱2