#chess
Любопытно, что многие думают, когда гроссмейстер играет против любителя, у первого всегда высокая точность.
И даже Крамник бубнил что-то типа "Даня, тебе не нужен движок, чтобы разбирать игру против рейтинга ~1500.
Ну вот, пожалуйста - нужен )
https://www.youtube.com/watch?v=Wwp9E6P-AHo
Любопытно, что многие думают, когда гроссмейстер играет против любителя, у первого всегда высокая точность.
И даже Крамник бубнил что-то типа "Даня, тебе не нужен движок, чтобы разбирать игру против рейтинга ~1500.
Ну вот, пожалуйста - нужен )
https://www.youtube.com/watch?v=Wwp9E6P-AHo
YouTube
Smith-Morra Gambit Accepted | The Sensei Speedrun | GM Naroditsky
00:00 Intro
13:10 Analysis
Daniel now has a Patreon! Check it out at www.patreon.com/danielnaroditsky.
- Follow Daniel on Twitter at https://twitter.com/GMNaroditsky
- Daniel streams regularly on Twitch at https://twitch.tv/GMNaroditsky
- Daniels Discord…
13:10 Analysis
Daniel now has a Patreon! Check it out at www.patreon.com/danielnaroditsky.
- Follow Daniel on Twitter at https://twitter.com/GMNaroditsky
- Daniel streams regularly on Twitch at https://twitch.tv/GMNaroditsky
- Daniels Discord…
👍1
#regularization #smoothing
Как-то незаметно оказалось, что я пропустил интересную технику регуляризации - сглаживание таргета (label smoothing).
https://medium.com/@nainaakash012/when-does-label-smoothing-help-89654ec75326
Как-то незаметно оказалось, что я пропустил интересную технику регуляризации - сглаживание таргета (label smoothing).
https://medium.com/@nainaakash012/when-does-label-smoothing-help-89654ec75326
Medium
When Does Label Smoothing Help?
In late 2015, a team at Google came up with a paper “Rethinking the Inception Architecture for Computer Vision” where they introduced a…
#google #tpu #hardware
"Компания Google сообщила о том, что её новейшие ИИ-ускорители TPU v6 с кодовым именем Trillium доступны клиентам для ознакомления в составе облачной платформы GCP. Утверждается, что на сегодняшний день новинка является самым эффективным решением Google по соотношению цена/производительность.
Официальная презентация Trillium состоялась в мае нынешнего года. Изделие оснащено 32 Гбайт памяти HBM с пропускной способностью 1,6 Тбайт/с, а межчиповый интерконнект ICI обеспечивает возможность передачи данных со скоростью до 3,58 Тбит/с (по четыре порта на чип). Задействованы блоки SparseCore третьего поколения.
Один узел включает восемь ускорителей TPU v6e (в двух NUMA-доменах), два неназванных процессора (суммарно 180 vCPU), 1,44 Тбайт RAM и четыре 200G-адаптера (по два на CPU) для связи с внешним миром. Отмечается, что посредством ICI напрямую могут быть объединены до 256 изделий Trillium, а агрегированная скорость сетевого подключение такого кластера (Pod) составляет 25,6 Тбит/с. Десятки тысяч ускорителей могут быть связаны в масштабный ИИ-кластер благодаря платформе Google Jupiter с оптической коммутацией, совокупная пропускная способность которой достигает 13 Пбит/с.
Заявляется, что благодаря ПО Multislice Trillium обеспечивается практически линейное масштабирование производительности для рабочих нагрузок, связанных с обучением ИИ. Производительность кластеров на базе Trillium может достигать 91 Эфлопс на ИИ-операциях: это в четыре раза больше по сравнению с самыми крупными развёртываниями систем на основе TPU v5p. BF16-производительность одного чипа TPU v6e составляет 918 Тфлопс, а INT8 — 1836 Топс.
В бенчмарках Trillium по сравнению с TPU v5e показал более чем четырёхкратное увеличение производительности при обучении моделей Gemma 2-27b, MaxText Default-32b и Llama2-70B, а также более чем трёхкратный прирост для LLama2-7b и Gemma2-9b. Кроме того, Trillium обеспечивает трёхкратное увеличение производительности инференса для Stable Diffusion XL (по отношению к TPU v5e). По соотношению цена/производительность TPU v6e демонстрирует 1,8-кратный рост по сравнению с TPU v5e и примерно двукратный рост по сравнению с TPU v5p."
https://servernews.ru/1113447
"Компания Google сообщила о том, что её новейшие ИИ-ускорители TPU v6 с кодовым именем Trillium доступны клиентам для ознакомления в составе облачной платформы GCP. Утверждается, что на сегодняшний день новинка является самым эффективным решением Google по соотношению цена/производительность.
Официальная презентация Trillium состоялась в мае нынешнего года. Изделие оснащено 32 Гбайт памяти HBM с пропускной способностью 1,6 Тбайт/с, а межчиповый интерконнект ICI обеспечивает возможность передачи данных со скоростью до 3,58 Тбит/с (по четыре порта на чип). Задействованы блоки SparseCore третьего поколения.
Один узел включает восемь ускорителей TPU v6e (в двух NUMA-доменах), два неназванных процессора (суммарно 180 vCPU), 1,44 Тбайт RAM и четыре 200G-адаптера (по два на CPU) для связи с внешним миром. Отмечается, что посредством ICI напрямую могут быть объединены до 256 изделий Trillium, а агрегированная скорость сетевого подключение такого кластера (Pod) составляет 25,6 Тбит/с. Десятки тысяч ускорителей могут быть связаны в масштабный ИИ-кластер благодаря платформе Google Jupiter с оптической коммутацией, совокупная пропускная способность которой достигает 13 Пбит/с.
Заявляется, что благодаря ПО Multislice Trillium обеспечивается практически линейное масштабирование производительности для рабочих нагрузок, связанных с обучением ИИ. Производительность кластеров на базе Trillium может достигать 91 Эфлопс на ИИ-операциях: это в четыре раза больше по сравнению с самыми крупными развёртываниями систем на основе TPU v5p. BF16-производительность одного чипа TPU v6e составляет 918 Тфлопс, а INT8 — 1836 Топс.
В бенчмарках Trillium по сравнению с TPU v5e показал более чем четырёхкратное увеличение производительности при обучении моделей Gemma 2-27b, MaxText Default-32b и Llama2-70B, а также более чем трёхкратный прирост для LLama2-7b и Gemma2-9b. Кроме того, Trillium обеспечивает трёхкратное увеличение производительности инференса для Stable Diffusion XL (по отношению к TPU v5e). По соотношению цена/производительность TPU v6e демонстрирует 1,8-кратный рост по сравнению с TPU v5e и примерно двукратный рост по сравнению с TPU v5p."
https://servernews.ru/1113447
ServerNews - все из мира больших мощностей
Google объявила о доступности ИИ-ускорителей TPU v6 Trillium
Компания Google сообщила о том, что её новейшие ИИ-ускорители TPU v6 с кодовым именем Trillium доступны клиентам для ознакомления в составе облачной платформы GCP. Утверждается, что на сегодняшний день новинка является самым эффективным решением Google по…
Forwarded from Data Science Private Sharing
#contest
Дайджест ближайших соревнований (отсортированы по дате проведения, но обратите на дату окончания регистрации - она может быть сильно раньше):
[СОР] AvitoTech ML cup 2024
⏰ Даты: 5.11 - 5.12
🔜 [CLF] Задача: предсказать вероятность, что пользователь кликнет рекламу
💰 Приз: 600 т.р. (+10 мерч)
🏀 Участие: соло или команда до 4 человек
🌐 Формат: онлайн
[ХАК] Tender Hack
⏰ Даты: 8.11 - 10.11 (рег. до 8.11)
🔜 Задача: разработать сервис, осуществляющий мониторинг котировочных сессий на предмет корректности публикации
💰 Приз: 500 т.р.
🏀 Участие: команда 3-5 человек
🌐 Формат: офлайн в СПБ
[ХАК] ЦП. Международный хакатон
⏰ Даты: 08.11 - 10.11 (рег. до 04.11)
🔜 [NLP] Кейс 1: выделение именованных сущностей из электропочты и классификация сообщений
🔜 [CV, REC] Кейс 2: поиск смысловых копий изображений
🔜 [CV, NLP] Кейс 3: матчинг видеовизитки и описания вакансии
🔜 [CV, CLF] Кейс 4: поиск животных на фото и их классификация
🔜 [CV] Кейс 5: детекция и распознавание маркировки на изображении
🔜 [NLP] Кейс 6: качественный анализ документации на соответствие требованиям
🔜 [CLF] Кейс 7: детекция аномалий при строительстве жилых комплексов в части транспортной доступности
🔜 [CV] Кейс 8: поиск нарушений автотранспортом на видеозаписи
🔜 [CLF] Кейс 9: распознавания фазы глубокого сна и промежуточной фазы сна
🔜 [NLP, RAG] Кейс 10: чат-бот для поиска информации в агентской библиотеке материалов
💰 Приз: 10 млн. рублей
🏀 Участие: команда 3-5 человек
🌐 Формат: гибрид
[ХАК] BIV Hack
⏰ Даты: 15.11 - 17.11 (рег. до 12.11)
🔜 [CLF, NLP] Задача 1: Автоматизация разбора платежей
🔜 [NLP] Задача 2: Алгоритм выявления связей между контрагентами
💰 Приз: 300 т.р.
🏀 Участие: команда 3-5 человек
🌐 Формат: онлайн
[ХАК] AgroCode Hack Genetics
⏰ Даты: 22.11 - 24.11 (рег. до 14.11)
🔜 [CLF] Задача 1: Система оценки племенной ценности радужной форели
🔜 [NLP] Задача 2: «Тиндер» для коров
🔜 [REG] Задача 3: Прогнозирование урожайности
🔜 [CLT] Задача 4: Историческая агроголоволомка
💰 Приз: 200 т.р. на задачу
🏀 Участие: команда 3-5 человек
🌐 Формат: онлайн
[ХАК] T1 | Импульс | Хакатон | Москва
⏰ Даты: 26.11 - 29.11 (рег. до 25.11)
🔜 [NLP] Трек 1: объединение данных пользователя в золотую запись
🔜 [NLP, RAG] Трек 2: цифровой ассистент базы знаний
💰 Приз: 600 т.р. на каждый трек
🏀 Участие: команда 3-5 человек
🌐 Формат: гибрид (Москва, минимум 2 участника на площадке)
[ХАК] ХАКАТОН ЕВРАЗА 3.0
⏰ Даты: 29.11 - 01.12 (рег. до 25.11)
🔜 [NLP] Задача: автоматический Code Review с помощью ИИ
💰 Приз: 500 т.р.
🏀 Участие: команда 2-5 человек
🌐 Формат: онлайн
З.Ы. Здесь приведены только ML-задачи. Сами задачи могут включать и расширенные требования. Например, Frontend.
Дайджест ближайших соревнований (отсортированы по дате проведения, но обратите на дату окончания регистрации - она может быть сильно раньше):
[СОР] AvitoTech ML cup 2024
⏰ Даты: 5.11 - 5.12
🏀 Участие: соло или команда до 4 человек
🌐 Формат: онлайн
[ХАК] Tender Hack
⏰ Даты: 8.11 - 10.11 (рег. до 8.11)
🏀 Участие: команда 3-5 человек
🌐 Формат: офлайн в СПБ
[ХАК] ЦП. Международный хакатон
⏰ Даты: 08.11 - 10.11 (рег. до 04.11)
🏀 Участие: команда 3-5 человек
🌐 Формат: гибрид
[ХАК] BIV Hack
⏰ Даты: 15.11 - 17.11 (рег. до 12.11)
🏀 Участие: команда 3-5 человек
🌐 Формат: онлайн
[ХАК] AgroCode Hack Genetics
⏰ Даты: 22.11 - 24.11 (рег. до 14.11)
🏀 Участие: команда 3-5 человек
🌐 Формат: онлайн
[ХАК] T1 | Импульс | Хакатон | Москва
⏰ Даты: 26.11 - 29.11 (рег. до 25.11)
🏀 Участие: команда 3-5 человек
🌐 Формат: гибрид (Москва, минимум 2 участника на площадке)
[ХАК] ХАКАТОН ЕВРАЗА 3.0
⏰ Даты: 29.11 - 01.12 (рег. до 25.11)
🏀 Участие: команда 2-5 человек
🌐 Формат: онлайн
З.Ы. Здесь приведены только ML-задачи. Сами задачи могут включать и расширенные требования. Например, Frontend.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Science Private Sharing
Написал на хабре статью, как с помощью Оптуны оптимизировать гиперпараметры RAG-системы (это такой карманный поисковик):
https://habr.com/ru/articles/811239/
https://habr.com/ru/articles/811239/
#regularization #smoothing
Потестировал label smoothing, у меня заработало только в нейронках и только в keras/tf.
Объясните мне, почему это не работает в Торче.
Вообще эффект слабый. Но можете попробовать на своих задачах:
Ещё можно просто использовать спецлосс, не меняя таргет:
Потестировал label smoothing, у меня заработало только в нейронках и только в keras/tf.
Объясните мне, почему это не работает в Торче.
Вообще эффект слабый. Но можете попробовать на своих задачах:
# 1. Generate a binary classification dataset
X, y = make_classification(n_samples=10000, n_features=10,flip_y=0.1, random_state=42)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 2. Set the smoothing factor
for alpha in np.linspace(0,0.1,20):
y_train_smoothed = np.where(y_train == 1, 1 - alpha / 2, alpha / 2)
model = Sequential([
Dense(64, activation='relu', input_shape=(X.shape[1],)),
Dense(1, activation='sigmoid') # Sigmoid output for binary classification
])
# 3. Compile the model
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
# 4. Train the model with smoothed labels
model.fit(
X_train, y_train_smoothed,
epochs=10,
batch_size=32,
validation_split=0.1,
verbose=0 # Set verbose to 0 if you want silent training
)
# 5. Evaluate the model
preds = model.predict(X_test,verbose=0).flatten()
metric=brier_score_loss(y_true=y_test,y_proba=preds)
print(f"alpha={alpha:.4f}, brier_score={metric:.4f}")
alpha=0.0000, brier_score=0.0990
alpha=0.0053, brier_score=0.0989
alpha=0.0105, brier_score=0.0984
alpha=0.0158, brier_score=0.0984
alpha=0.0211, brier_score=0.0999
alpha=0.0263, brier_score=0.0999
alpha=0.0316, brier_score=0.0995
alpha=0.0368, brier_score=0.0998
alpha=0.0421, brier_score=0.1006
alpha=0.0474, brier_score=0.1021
alpha=0.0526, brier_score=0.1018
alpha=0.0579, brier_score=0.1017
alpha=0.0632, brier_score=0.1014
alpha=0.0684, brier_score=0.1021
alpha=0.0737, brier_score=0.1021
alpha=0.0789, brier_score=0.1011
alpha=0.0842, brier_score=0.1045
alpha=0.0895, brier_score=0.1017
alpha=0.0947, brier_score=0.1027
alpha=0.1000, brier_score=0.1034
Ещё можно просто использовать спецлосс, не меняя таргет:
model.compile(optimizer='adam', loss=partial(tf.keras.losses.binary_crossentropy,
from_logits=False,
label_smoothing=alpha), metrics=['accuracy'])
#astronomy #biology #lifeorigin
Не знал, что в Солнечной системе так много спутников с океанами!
https://youtu.be/wf7ZifJ0p1c?si=d1_ohWMge2xR6s3k
Не знал, что в Солнечной системе так много спутников с океанами!
https://youtu.be/wf7ZifJ0p1c?si=d1_ohWMge2xR6s3k
YouTube
Жизнь на спутнике Юпитера. Миссия Europa Clipper
Научные сенсации. Космос. Вода. Жизнь
14 октября 2024 года сверхтяжелая ракета Falcon Heavy вывела в космос 6-тонный автоматический аппарат Europa Clipper. Межпланетная станция отправится к спутнику Юпитера - Европе. Под её ледяной корой есть жидкий океан…
14 октября 2024 года сверхтяжелая ракета Falcon Heavy вывела в космос 6-тонный автоматический аппарат Europa Clipper. Межпланетная станция отправится к спутнику Юпитера - Европе. Под её ледяной корой есть жидкий океан…
#apple #hardware #cpu
Ноутбучный процессор быстрее лучших настольных. Эппл показала Интел и АМД, кто тут батя )
"В свою очередь, процессор Intel Core i9-14900K набрал 3144 балла в одноядерном тесте и 23 044 балла в многоядерном. Это ставит новый чип Apple M4 Max на 15 % выше по производительности по сравнению с самым мощным настольным чипом Intel, что лишний раз подчёркивает значительные достижения Apple в области разработки собственных высокопроизводительных процессоров.
Кроме того, Apple ещё не представила чип M4 Ultra, который, предположительно, будет обладать примерно удвоенной производительностью по сравнению с Apple M4 Max благодаря технологии UltraFusion, позволяющей объединить два кристалла Max с минимальными потерями. Ожидается, что M4 Ultra станет доступен в Apple Mac Studio и Mac Pro примерно в середине 2025 года, что, вероятно, поднимет планку производительности «яблочных» устройств на новый уровень."
https://3dnews.ru/1113451/noviy-protsessor-apple-m4-max-okazalsya-samim-bistrim-na-rinke
Ноутбучный процессор быстрее лучших настольных. Эппл показала Интел и АМД, кто тут батя )
"В свою очередь, процессор Intel Core i9-14900K набрал 3144 балла в одноядерном тесте и 23 044 балла в многоядерном. Это ставит новый чип Apple M4 Max на 15 % выше по производительности по сравнению с самым мощным настольным чипом Intel, что лишний раз подчёркивает значительные достижения Apple в области разработки собственных высокопроизводительных процессоров.
Кроме того, Apple ещё не представила чип M4 Ultra, который, предположительно, будет обладать примерно удвоенной производительностью по сравнению с Apple M4 Max благодаря технологии UltraFusion, позволяющей объединить два кристалла Max с минимальными потерями. Ожидается, что M4 Ultra станет доступен в Apple Mac Studio и Mac Pro примерно в середине 2025 года, что, вероятно, поднимет планку производительности «яблочных» устройств на новый уровень."
https://3dnews.ru/1113451/noviy-protsessor-apple-m4-max-okazalsya-samim-bistrim-na-rinke
3DNews - Daily Digital Digest
Apple M4 Max оказался быстрее Core i9-14900K и Ryzen 9 9950X в тестах Geekbench
Apple на этой неделе представила новые MacBook Pro с процессорами M4, M4 Pro и M4 Max. Наибольший интерес привлёк M4 Max, который, по первым тестам, оказался самым быстрым среди всех ноутбучных чипов и обогнал по производительности многие мощные настольные…
#competitions
У меня не очень опыт с ML соревами - потратишь обычно кучу времени, потом вылезет какая-нить утечка данных. Или в конце выяснится, что для организатора соревнования главное - PR, а вовсе не реальная польза от моделек.
Но периодически накатывает, и пытаюсь влезть в какие-то ) Идея в том, чтобы свериться с индустрией, оценить, насколько сильно ты отстал от топов.
Сейчас на ODS идут 2 соревы, я решил поучаствовать для разнообразия. Попробуйте свои силы и вы.
Сначала советую AvitoTech ML cup 2024, только вчера стартануло, длиться 4 недели будет.
Потом смотрите VK RecSys Challenge , там уже полсрока прошло (ну все равно еще 7 недель есть).
У меня не очень опыт с ML соревами - потратишь обычно кучу времени, потом вылезет какая-нить утечка данных. Или в конце выяснится, что для организатора соревнования главное - PR, а вовсе не реальная польза от моделек.
Но периодически накатывает, и пытаюсь влезть в какие-то ) Идея в том, чтобы свериться с индустрией, оценить, насколько сильно ты отстал от топов.
Сейчас на ODS идут 2 соревы, я решил поучаствовать для разнообразия. Попробуйте свои силы и вы.
Сначала советую AvitoTech ML cup 2024, только вчера стартануло, длиться 4 недели будет.
Потом смотрите VK RecSys Challenge , там уже полсрока прошло (ну все равно еще 7 недель есть).
⚡1
#trading #crypto
Фантики-то растут! )
"За последние сутки курс биткоина вырос более чем на 9 %, благодаря чему криптовалюта смогла обновить исторический максимум. Предыдущий рекорд был зафиксирован 14 марта, тогда цена самой популярной криптовалюты мира на непродолжительное время поднялась до $73 797 за монету. С тех пор большую часть года цена биткоина находилась ниже отметки в $70 000.
Рост курса биткоина спровоцировали проходящие в США выборы президента страны. Кандидат от республиканской партии Дональд Трамп, по данным СМИ, лидирует в них. Инвесторы ожидали, что курс биткоина будет нестабилен до тех пор, пока не будет объявлен победитель президентских выборов. При этом в случае победы Трампа прогнозировался уверенный рост цифрового актива, тогда как победа кандидата от демократической партии Камалы Харрис (Kamala Harris) наоборот могла привести к понижению курса."
https://3dnews.ru/1113580/kurs-bitkoina-viros-do-rekordnih-znacheniy-kriptovalyuta-pereshagnula-otmetku-v-75-000-za-monetu
Фантики-то растут! )
"За последние сутки курс биткоина вырос более чем на 9 %, благодаря чему криптовалюта смогла обновить исторический максимум. Предыдущий рекорд был зафиксирован 14 марта, тогда цена самой популярной криптовалюты мира на непродолжительное время поднялась до $73 797 за монету. С тех пор большую часть года цена биткоина находилась ниже отметки в $70 000.
Рост курса биткоина спровоцировали проходящие в США выборы президента страны. Кандидат от республиканской партии Дональд Трамп, по данным СМИ, лидирует в них. Инвесторы ожидали, что курс биткоина будет нестабилен до тех пор, пока не будет объявлен победитель президентских выборов. При этом в случае победы Трампа прогнозировался уверенный рост цифрового актива, тогда как победа кандидата от демократической партии Камалы Харрис (Kamala Harris) наоборот могла привести к понижению курса."
https://3dnews.ru/1113580/kurs-bitkoina-viros-do-rekordnih-znacheniy-kriptovalyuta-pereshagnula-otmetku-v-75-000-za-monetu
3DNews - Daily Digital Digest
Биткоин пробил $75 000 впервые в истории — выборы в США запустили рост криптовалют
Курс биткоина обновил исторический максимум, превысив отметку в $75 000 за монету.
#politics #crypto
"Одним из ключевых моментов президентских выборов США также стала победа республиканца Берни Морено (Bernie Moreno) в штате Огайо. Морено, поддерживающий криптовалюты, выиграл сенаторское кресло у демократа Шеррода Брауна (Sherrod Brown), известного своей непримиримой критикой криптоиндустрии. Морено набрал более 2,8 млн голосов, или 50,2 % от общего числа, в то время как Браун получил 2,5 млн голосов, или 46,4 %. В этой гонке было потрачено более $500 млн, причём Fairshake также вложила $40 млн в поддержку Морено. Среди крупнейших спонсоров были такие компании, как Coinbase, Ripple Labs и Andreessen Horowitz."
https://3dnews.ru/1113620/tramp-vozvrashchaetsya-v-beliy-dom-vmeste-s-armiey-storonnikov-kriptovalyuti
"Одним из ключевых моментов президентских выборов США также стала победа республиканца Берни Морено (Bernie Moreno) в штате Огайо. Морено, поддерживающий криптовалюты, выиграл сенаторское кресло у демократа Шеррода Брауна (Sherrod Brown), известного своей непримиримой критикой криптоиндустрии. Морено набрал более 2,8 млн голосов, или 50,2 % от общего числа, в то время как Браун получил 2,5 млн голосов, или 46,4 %. В этой гонке было потрачено более $500 млн, причём Fairshake также вложила $40 млн в поддержку Морено. Среди крупнейших спонсоров были такие компании, как Coinbase, Ripple Labs и Andreessen Horowitz."
https://3dnews.ru/1113620/tramp-vozvrashchaetsya-v-beliy-dom-vmeste-s-armiey-storonnikov-kriptovalyuti
3DNews - Daily Digital Digest
Трамп возвращается в Белый дом вместе с армией сторонников криптовалюты
В то время как Дональд Трамп (Donald Trump) готовится вернуться в Белый дом, кандидаты, поддерживающие развитие криптовалютной индустрии, обеспечили себе большинство в Палате представителей (247 мест) и значительное представительство в Сенате (15 мест) Конгресса…
#openai
"В мире технологий покупка дорогих доменов не является большой редкостью. Например, буквально несколько месяцев назад стартап Friend приобрёл домен friend.com за $1,8 млн после привлечения инвестиций на сумму $2,5 млн. А на фоне недавно полученных OpenAI $6,6 млрд сумма в $15,5 млн кажется незначительной."
А мне, если это правдивая инфа, трата $15,5 млн кажется дебилизмом.
https://3dnews.ru/1113619/openai-ne-pogalela-155-mln-na-pokupku-domena-chatcom
"В мире технологий покупка дорогих доменов не является большой редкостью. Например, буквально несколько месяцев назад стартап Friend приобрёл домен friend.com за $1,8 млн после привлечения инвестиций на сумму $2,5 млн. А на фоне недавно полученных OpenAI $6,6 млрд сумма в $15,5 млн кажется незначительной."
А мне, если это правдивая инфа, трата $15,5 млн кажется дебилизмом.
https://3dnews.ru/1113619/openai-ne-pogalela-155-mln-na-pokupku-domena-chatcom
3DNews - Daily Digital Digest
OpenAI не пожалела $15,5 млн на покупку домена chat.com
Компания OpenAI, разработчик чат-бота ChatGPT, приобрела домен chat.
#cpu #hardware #intel
Тем временем у Интел вышли новы настольные процессоры.
https://www.ign.com/articles/intel-core-ultra-9-285k-review
Тем временем у Интел вышли новы настольные процессоры.
https://www.ign.com/articles/intel-core-ultra-9-285k-review
IGN
Intel Core Ultra 9 285K Review - IGN
#cpu #hardware #amd
И у АМД вышла новая модель с 3d кэшем, нынешний лидер в играх.
https://www.tomshardware.com/pc-components/cpus/amd-ryzen-7-9800x3d-review-devastating-gaming-performance
И у АМД вышла новая модель с 3d кэшем, нынешний лидер в играх.
https://www.tomshardware.com/pc-components/cpus/amd-ryzen-7-9800x3d-review-devastating-gaming-performance
Tom's Hardware
AMD Ryzen 7 9800X3D Review: Devastating Gaming Performance
AMD's 3D V-Cache forges the unquestioned gaming champ.
#yan
Своего рода пробежка по несвязанным темам, но может натолкнуть на полезные идеи. Я выпишу несколько срезонировавших тем.
Machine learning involves trade-offs. Recall vs. precision. Explore vs. exploit. Relevance vs. diversity vs. serendipity. Accuracy vs. speed vs. cost. The challenge is figuring out the right balance for your user experience.
Set realistic expectations. Most problems have a ceiling on what can be achieved, especially those that involve predicting the behavior of unpredictable humans (e.g., search, recommendations, fraud). It may not make sense to aim beyond the ceiling, unless you’re doing core research to push the boundaries on what’s possible.
Don’t overlook the dimension of time. User preferences change. Inventory gets drawn down. Content relevance shifts. Daily, seasonally, over months and years. If time is a key factor in your problem (e.g., recommendations, search, news feed), ensure your systems and models are time-aware.
Build with an eye toward the future. Flexibility beats specialization in the long run. -Вот это наиболее спорный пункт, конечно, но и интересный. Есть факты за и против.
Don’t underestimate the effort it takes to go from demo to production. “There’s a large class of problems that are easy to imagine and build demos for, but extremely hard to make products out of. For example, self-driving. It’s easy to demo a car self-driving around a block but making it into a product takes a decade.” — Andrej Karpathy
Not everything needs to be in real-time. If your user experience allows it, consider batch or asynchronous workflows to simplify the system design and reduce operational costs. When designing a new system, ask yourself: Can this be async?
Design for fast failure detection and recovery. No system is perfect; stuff will slip through. Yet, there’s an optimal investment balance between prevention and cure. Monitoring, alerts, rollbacks, Andon cords—these will go a long way. - Про andon cords вообще не знал.
Not every challenge is technical. Some challenges are about alignment, culture, and organizations. Working with people is hard. When you zoom out, it turns out that tech is often the easier part.
To create winning products, dream big and sweat the small stuff. Aim for the stars but don’t forget the details. The best leaders have vision and get their hands dirty with the details. You can’t just do one or the other; you need to do both.
Humans are insatiable. LLMs will automate some tasks. LLMs will simplify others. But there will always be new problems to solve, and more things to build. AI won’t steal your job—it’ll just make it more interesting. - Скажите это массово уволенным операторам техподдержки!
https://eugeneyan.com/writing/conf-lessons/
Своего рода пробежка по несвязанным темам, но может натолкнуть на полезные идеи. Я выпишу несколько срезонировавших тем.
Machine learning involves trade-offs. Recall vs. precision. Explore vs. exploit. Relevance vs. diversity vs. serendipity. Accuracy vs. speed vs. cost. The challenge is figuring out the right balance for your user experience.
Set realistic expectations. Most problems have a ceiling on what can be achieved, especially those that involve predicting the behavior of unpredictable humans (e.g., search, recommendations, fraud). It may not make sense to aim beyond the ceiling, unless you’re doing core research to push the boundaries on what’s possible.
Don’t overlook the dimension of time. User preferences change. Inventory gets drawn down. Content relevance shifts. Daily, seasonally, over months and years. If time is a key factor in your problem (e.g., recommendations, search, news feed), ensure your systems and models are time-aware.
Build with an eye toward the future. Flexibility beats specialization in the long run. -Вот это наиболее спорный пункт, конечно, но и интересный. Есть факты за и против.
Don’t underestimate the effort it takes to go from demo to production. “There’s a large class of problems that are easy to imagine and build demos for, but extremely hard to make products out of. For example, self-driving. It’s easy to demo a car self-driving around a block but making it into a product takes a decade.” — Andrej Karpathy
Not everything needs to be in real-time. If your user experience allows it, consider batch or asynchronous workflows to simplify the system design and reduce operational costs. When designing a new system, ask yourself: Can this be async?
Design for fast failure detection and recovery. No system is perfect; stuff will slip through. Yet, there’s an optimal investment balance between prevention and cure. Monitoring, alerts, rollbacks, Andon cords—these will go a long way. - Про andon cords вообще не знал.
Not every challenge is technical. Some challenges are about alignment, culture, and organizations. Working with people is hard. When you zoom out, it turns out that tech is often the easier part.
To create winning products, dream big and sweat the small stuff. Aim for the stars but don’t forget the details. The best leaders have vision and get their hands dirty with the details. You can’t just do one or the other; you need to do both.
Humans are insatiable. LLMs will automate some tasks. LLMs will simplify others. But there will always be new problems to solve, and more things to build. AI won’t steal your job—it’ll just make it more interesting. - Скажите это массово уволенным операторам техподдержки!
https://eugeneyan.com/writing/conf-lessons/
eugeneyan.com
39 Lessons on Building ML Systems, Scaling, Execution, and More
ML systems, production & scaling, execution & collaboration, building for users, conference etiquette.
👍1
#lean #management
"The andon cord represents a system by which any worker can invoke attention in case of a problem. It sends a notification to the maintenance or the management team before it’s too late. Consequently, it reduces waste and boosts progress."
https://www.plutora.com/blog/andon-cord
"The andon cord represents a system by which any worker can invoke attention in case of a problem. It sends a notification to the maintenance or the management team before it’s too late. Consequently, it reduces waste and boosts progress."
https://www.plutora.com/blog/andon-cord
Plutora
Understanding the Andon Cord as the Key to Lean Operations
In today's post, you'll learn how to boost your team's productivity and enhance your revenue by using the andon cord in lean operations.
Forwarded from asisakov
Roadmap в DataScience
Десятки гайдов я перечитал в свое время про то, как вкатиться в наш любимый датасаенс. И не раз я встречал потом комментарии к ним, что подготовка по таким гайдам занимает не менее года, и потом за этим следует череда собеседований и отказов, которая может занимать в лучшем случае несколько недель, а в худшем даже больше года. Проблема - там огромная куча курсов с глубоким погружением почти во все направления, что отнимает много ресурсов и часто является оверкиллом.
Мы все понимаем, что вкладывать огромное количество времени и сил целый год подряд и даже без надежды на 100% успех, это немного тяжело - тем более с непрофильными фуллтайм учебой/работой. Не забываем также о том, что конкуренция на начальные позиции постоянно растет. Вместо условных 100 резюме на одну стажерскую позицию несколько лет назад, сейчас мы имеем 300 (цифры субъективны).
Итак. Давайте мы посмотрим с другой стороны на весь этот процесс и вспомним, что же нам нужно знать для прохождения всех этих собеседований. Обратившись к моим прошлым постам про собесы, мы вдруг понимаем, что вещей, которые следует знать, существует огромное множество. И каждый из этих элементов реально важен для своей специфики. Ну например: cuda, c++, linear algebra, gan, llm. Да, реально важны и нужны в своих областях🤓
Вы наверно не поверите, если я скажу, что в DS можно вкатиться без знания всех этих вещей. Если мы отсортируем требования по вакансиям и попробуем посмотреть самое частое, то скорее всего в нашем списке будет только небольшое количество моментов: python, sql, classic ml, dl. Это некоторый минимум, чтобы попасть на стажировку на ML engineer или аналитика. Но минимум не означает, что шансы сильно вырастут, хотя они будут не околонулевые. Но если сюда докинуть пет-проект и знания узкой области, в которой планируется работать, то шансы многократно возрастают. Но база в виде указанных выше моментов все равно нужна.
Предполагаем, что нам в первую очередь нужно на базе: python, sql, classic ml, dl. И самое интересное, что никому не нужно 100% понимание и погружение. Я даже не видел вживую человека, который на 100% знает Python. При прохождении отбора на начальные позиции важнее иметь скиллы, которые являются базовыми и позволяют уже работать с инструментом быстро, даже если требуется гуглинг и это уже неплохо. К слову, ставьте 💯, если минимум 1 раз в день гуглите на работе.
Давайте попробуем понять, а какой же из этих скиллов может дать наибольший выхлоп сразу. А именно, со знанием какого скилла мы можем слегка доучиьтся и сразу пойти получать опыт? Можно даже отсортировать эти скиллы:
1️⃣ SQL (+ подтянуть специфичную аналитику, Excel и A/B) - можно идти на стажера-аналитика
2️⃣ SQL + Python (+ сделать пет-проект) - можно идти и на стажера-разработчика, и на стажера-аналитика
3️⃣ SQL + Python + Classic ML + DL (+ сделать пет-проект + подтянуть специфику) - можно попробоваться даже на стажера ML-разработчика
По объему базовое понимание SQL статзначимо занимает меньше времени, чем базовое понимание Python. И, начав с SQL, погрузившись немного в аналитику и метрики, мы уже можем пробовать себя в аналитике, найти работу и уже получать опыт, пока подтягиваем Python и остальные скиллы. И совсем не обязательно это значит, что потом нужно идти дальше и менять направление на разработчика. Можно строить карьеру в аналитике дальше, либо можно пойти по менеджерскому треку и стать Project Manager или Product Owner. Главное понимать, где лежит бешеное желание развиваться.
Можно пройти хоть миллион курсов за несколько лет, но это не позволит получить 100% вероятность прохождения собеседования. Банально может не произойти сходство по вайбу. Поэтому с собеседованием тоже не стоит тянуть. Как только почувствовали уверенность в себе - можно идти набирать опыт в собеседованиях, искать точки роста и в конце концов, заветный оффер не заставит себя ждать🤩
По курсам я могу сделать отдельный пост. И если это нужно, ставьте реакции и пишите комментарии. Кому интересно обсудить такой путь развития, welcome в комментарии.
@asisakov_channel
#career #interview
Десятки гайдов я перечитал в свое время про то, как вкатиться в наш любимый датасаенс. И не раз я встречал потом комментарии к ним, что подготовка по таким гайдам занимает не менее года, и потом за этим следует череда собеседований и отказов, которая может занимать в лучшем случае несколько недель, а в худшем даже больше года. Проблема - там огромная куча курсов с глубоким погружением почти во все направления, что отнимает много ресурсов и часто является оверкиллом.
Мы все понимаем, что вкладывать огромное количество времени и сил целый год подряд и даже без надежды на 100% успех, это немного тяжело - тем более с непрофильными фуллтайм учебой/работой. Не забываем также о том, что конкуренция на начальные позиции постоянно растет. Вместо условных 100 резюме на одну стажерскую позицию несколько лет назад, сейчас мы имеем 300 (цифры субъективны).
Итак. Давайте мы посмотрим с другой стороны на весь этот процесс и вспомним, что же нам нужно знать для прохождения всех этих собеседований. Обратившись к моим прошлым постам про собесы, мы вдруг понимаем, что вещей, которые следует знать, существует огромное множество. И каждый из этих элементов реально важен для своей специфики. Ну например: cuda, c++, linear algebra, gan, llm. Да, реально важны и нужны в своих областях
Вы наверно не поверите, если я скажу, что в DS можно вкатиться без знания всех этих вещей. Если мы отсортируем требования по вакансиям и попробуем посмотреть самое частое, то скорее всего в нашем списке будет только небольшое количество моментов: python, sql, classic ml, dl. Это некоторый минимум, чтобы попасть на стажировку на ML engineer или аналитика. Но минимум не означает, что шансы сильно вырастут, хотя они будут не околонулевые. Но если сюда докинуть пет-проект и знания узкой области, в которой планируется работать, то шансы многократно возрастают. Но база в виде указанных выше моментов все равно нужна.
Предполагаем, что нам в первую очередь нужно на базе: python, sql, classic ml, dl. И самое интересное, что никому не нужно 100% понимание и погружение. Я даже не видел вживую человека, который на 100% знает Python. При прохождении отбора на начальные позиции важнее иметь скиллы, которые являются базовыми и позволяют уже работать с инструментом быстро, даже если требуется гуглинг и это уже неплохо. К слову, ставьте 💯, если минимум 1 раз в день гуглите на работе.
Давайте попробуем понять, а какой же из этих скиллов может дать наибольший выхлоп сразу. А именно, со знанием какого скилла мы можем слегка доучиьтся и сразу пойти получать опыт? Можно даже отсортировать эти скиллы:
По объему базовое понимание SQL статзначимо занимает меньше времени, чем базовое понимание Python. И, начав с SQL, погрузившись немного в аналитику и метрики, мы уже можем пробовать себя в аналитике, найти работу и уже получать опыт, пока подтягиваем Python и остальные скиллы. И совсем не обязательно это значит, что потом нужно идти дальше и менять направление на разработчика. Можно строить карьеру в аналитике дальше, либо можно пойти по менеджерскому треку и стать Project Manager или Product Owner. Главное понимать, где лежит бешеное желание развиваться.
Можно пройти хоть миллион курсов за несколько лет, но это не позволит получить 100% вероятность прохождения собеседования. Банально может не произойти сходство по вайбу. Поэтому с собеседованием тоже не стоит тянуть. Как только почувствовали уверенность в себе - можно идти набирать опыт в собеседованиях, искать точки роста и в конце концов, заветный оффер не заставит себя ждать
По курсам я могу сделать отдельный пост. И если это нужно, ставьте реакции и пишите комментарии. Кому интересно обсудить такой путь развития, welcome в комментарии.
@asisakov_channel
#career #interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
asisakov
Всё, что нужно знать про собеседования в Data Science
Можно с уверенностью сказать, что каждый из вас не раз сталкивался с собеседованиями, или в будущем с ними столкнется. Я потихоньку писал для вас серию постов, которая поможет:
1. Быстро вспомнить структуру…
Можно с уверенностью сказать, что каждый из вас не раз сталкивался с собеседованиями, или в будущем с ними столкнется. Я потихоньку писал для вас серию постов, которая поможет:
1. Быстро вспомнить структуру…
👍2