This media is not supported in your browser
VIEW IN TELEGRAM
На канале MLinside вышло интервью с Марией Тихоновой — кандидатом компьютерных наук, доцентом ВШЭ и руководителем исследовательского направления в команде AGI NLP в Сбере. Мария — один из ведущих специалистов в области обучения и оценки больших языковых моделей.
💡 Что обсудили:
🔹 Как совмещать работу, преподавание и личную жизнь?
🔹 Как проходит день Data Scientist-а в Сбере?
🔹 Какие навыки нужны, чтобы попасть в R&D-команду?
🔹 Как устроен процесс найма в Сбере и кого берут?
🔹 Нужно ли техническое образование или есть альтернативные пути?
🔹 Как избежать профессионального выгорания и сохранить мотивацию?
👉 Смотреть интервью
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍6🤔2
Градиентный бустинг vs. Случайный лес – как они работают? 🧐
Случайный лес (Random Forest) и градиентный бустинг (Gradient Boosting) – оба метода основаны на ансамблировании деревьев решений, но работают по-разному и решают разные задачи. Давайте разберемся!
🔹 Случайный лес (Random Forest)
Это ансамблевый метод, который строит множество независимых деревьев решений и усредняет их предсказания. Представьте, что у вас есть много экспертов, каждый из которых делает свой прогноз, а итоговый результат – это их "среднее мнение".
Как работает Random Forest?
1️⃣ Генерируется несколько случайных подвыборок данных (bootstrap sampling).
2️⃣ Для каждой подвыборки строится дерево решений, но при каждом разбиении выбирается случайное подмножество признаков (feature bagging).
3️⃣ Финальный прогноз:
• В задачах классификации – берется большинство голосов (mode).
• В задачах регрессии – усредняются предсказания деревьев (mean).
Плюсы:
✔️ Устойчивость к переобучению (overfitting) за счет усреднения.
✔️ Хорошо работает на небольших и средних данных.
✔️ Не чувствителен к выбросам.
Минусы:
• Менее точный, чем градиентный бустинг, на сложных данных.
• Если данных очень мало, даже случайный лес может плохо работать.
🔹Градиентный бустинг (Gradient Boosting)
Градиентный бустинг строит последовательные деревья, каждое из которых минимизирует ошибку предыдущего с помощью градиентного спуска. Это как улучшать прогноз шаг за шагом, пока он не станет максимально точным.
Как работает Gradient Boosting?
1️⃣ Первое дерево делает начальное предсказание (например, среднее значение таргета).
2️⃣ Далее обучаются последовательные деревья, каждое из которых учится исправлять ошибки предыдущего.
3️⃣ Ошибки вычисляются с помощью градиентного спуска, а каждое новое дерево пытается минимизировать ошибку предыдущего.
Плюсы:
✔️ Высокая точность на сложных данных.
✔️ Хорошо работает с несбалансированными и шумными данными.
✔️ Адаптируется к сложным зависимостям в данных.
Минусы:
• Дольше обучается, чем случайный лес.
• Чувствителен к шуму и выбросам.
• Требует тщательной настройки гиперпараметров.
📌 В реальных задачах часто используют оба метода, тестируя их на кросс-валидации, чтобы выбрать оптимальный.
Случайный лес (Random Forest) и градиентный бустинг (Gradient Boosting) – оба метода основаны на ансамблировании деревьев решений, но работают по-разному и решают разные задачи. Давайте разберемся!
🔹 Случайный лес (Random Forest)
Это ансамблевый метод, который строит множество независимых деревьев решений и усредняет их предсказания. Представьте, что у вас есть много экспертов, каждый из которых делает свой прогноз, а итоговый результат – это их "среднее мнение".
Как работает Random Forest?
1️⃣ Генерируется несколько случайных подвыборок данных (bootstrap sampling).
2️⃣ Для каждой подвыборки строится дерево решений, но при каждом разбиении выбирается случайное подмножество признаков (feature bagging).
3️⃣ Финальный прогноз:
• В задачах классификации – берется большинство голосов (mode).
• В задачах регрессии – усредняются предсказания деревьев (mean).
Плюсы:
✔️ Устойчивость к переобучению (overfitting) за счет усреднения.
✔️ Хорошо работает на небольших и средних данных.
✔️ Не чувствителен к выбросам.
Минусы:
• Менее точный, чем градиентный бустинг, на сложных данных.
• Если данных очень мало, даже случайный лес может плохо работать.
🔹Градиентный бустинг (Gradient Boosting)
Градиентный бустинг строит последовательные деревья, каждое из которых минимизирует ошибку предыдущего с помощью градиентного спуска. Это как улучшать прогноз шаг за шагом, пока он не станет максимально точным.
Как работает Gradient Boosting?
1️⃣ Первое дерево делает начальное предсказание (например, среднее значение таргета).
2️⃣ Далее обучаются последовательные деревья, каждое из которых учится исправлять ошибки предыдущего.
3️⃣ Ошибки вычисляются с помощью градиентного спуска, а каждое новое дерево пытается минимизировать ошибку предыдущего.
Плюсы:
✔️ Высокая точность на сложных данных.
✔️ Хорошо работает с несбалансированными и шумными данными.
✔️ Адаптируется к сложным зависимостям в данных.
Минусы:
• Дольше обучается, чем случайный лес.
• Чувствителен к шуму и выбросам.
• Требует тщательной настройки гиперпараметров.
📌 В реальных задачах часто используют оба метода, тестируя их на кросс-валидации, чтобы выбрать оптимальный.
❤11
Когда ИИ ошибается: провал Amazon в AI-рекрутинге 🤖
ИИ сегодня проникает во все сферы жизни — от медицины до рекрутмента. Amazon — одна из ведущих компаний в применении машинного обучения, и их алгоритмы успешно работают в рекомендациях, логистике и персонализации. Однако даже у них бывают провалы. Один из самых громких случаев связан с AI-рекрутером, который должен был автоматизировать найм, но вместо этого стал дискриминировать кандидатов.
👩💼Как Amazon попытался ускорить найм с помощью ИИ
В 2014 году компания начала разработку алгоритма автоматизированного отбора кандидатов. Идея была простой: ИИ анализирует резюме, находит лучшие и отбирает наиболее подходящих специалистов. Такой инструмент мог бы значительно ускорить процесс найма.
❌Что пошло не так?
Чтобы обучить модель, Amazon использовал резюме кандидатов за последние 10 лет. Но в IT-индустрии за этот период доминировали мужчины. Алгоритм заметил это и счел мужчин "предпочтительным" вариантом. В результате:
🔹 Кандидаты-женщины получали заниженный рейтинг.
🔹 Выпускники женских колледжей автоматически попадали в "низший" список.
🔹 Даже слово "женский" (women’s) в резюме снижало шансы на успех.
🤔 Почему Amazon отказался от AI-рекрутинга?
Компания попыталась исправить модель, но даже после правок алгоритм продолжал находить новые способы дискриминации. В 2018 году, после расследования Reuters, проект был окончательно закрыт.
Amazon официально заявил, что система не использовалась в реальном найме, но кейс стал знаковым примером предвзятости в машинном обучении.
Вывод
✅ ИИ-алгоритмы могут усиливать дискриминацию, если обучаются на исторически предвзятых данных.
✅ Даже крупные компании с огромными ресурсами не всегда могут исправить проблему.
✅ Тестирование на предвзятость — обязательный этап перед внедрением моделей в бизнес-процессы.
Этот случай показывает, насколько важно проверять данные перед обучением ИИ. Ведь если данные отражают устаревшие стереотипы, модель просто перенимает их, а не исправляет.
📌 Хотите больше разборов неудачных AI-кейсов? Пишите в комментариях!
ИИ сегодня проникает во все сферы жизни — от медицины до рекрутмента. Amazon — одна из ведущих компаний в применении машинного обучения, и их алгоритмы успешно работают в рекомендациях, логистике и персонализации. Однако даже у них бывают провалы. Один из самых громких случаев связан с AI-рекрутером, который должен был автоматизировать найм, но вместо этого стал дискриминировать кандидатов.
👩💼Как Amazon попытался ускорить найм с помощью ИИ
В 2014 году компания начала разработку алгоритма автоматизированного отбора кандидатов. Идея была простой: ИИ анализирует резюме, находит лучшие и отбирает наиболее подходящих специалистов. Такой инструмент мог бы значительно ускорить процесс найма.
❌Что пошло не так?
Чтобы обучить модель, Amazon использовал резюме кандидатов за последние 10 лет. Но в IT-индустрии за этот период доминировали мужчины. Алгоритм заметил это и счел мужчин "предпочтительным" вариантом. В результате:
🔹 Кандидаты-женщины получали заниженный рейтинг.
🔹 Выпускники женских колледжей автоматически попадали в "низший" список.
🔹 Даже слово "женский" (women’s) в резюме снижало шансы на успех.
🤔 Почему Amazon отказался от AI-рекрутинга?
Компания попыталась исправить модель, но даже после правок алгоритм продолжал находить новые способы дискриминации. В 2018 году, после расследования Reuters, проект был окончательно закрыт.
Amazon официально заявил, что система не использовалась в реальном найме, но кейс стал знаковым примером предвзятости в машинном обучении.
Вывод
✅ ИИ-алгоритмы могут усиливать дискриминацию, если обучаются на исторически предвзятых данных.
✅ Даже крупные компании с огромными ресурсами не всегда могут исправить проблему.
✅ Тестирование на предвзятость — обязательный этап перед внедрением моделей в бизнес-процессы.
Этот случай показывает, насколько важно проверять данные перед обучением ИИ. Ведь если данные отражают устаревшие стереотипы, модель просто перенимает их, а не исправляет.
📌 Хотите больше разборов неудачных AI-кейсов? Пишите в комментариях!
🔥10❤3👍2😁2👨💻1
Готовы проверить себя?
Сегодня в нашем канале — новый квиз! Несколько увлекательных задач, хорошая разминка для мозга и шанс узнать что-то полезное.
Не пропустите! 🧠 ✨
Сегодня в нашем канале — новый квиз! Несколько увлекательных задач, хорошая разминка для мозга и шанс узнать что-то полезное.
Не пропустите! 🧠 ✨
❤6
Какую метрику качества из перечисленных лучше использовать в задачах классификации с несбалансированными классами?
Anonymous Quiz
7%
Accuracy
6%
Precision
9%
Recall
78%
F1-score
Что означает термин "градиентный спуск"?
Anonymous Quiz
4%
Алгоритм для оценки точности модели
89%
Метод оптимизации функции потерь
5%
Процесс выбора гиперпараметров
2%
Механизм разбиения данных на кластеры
📌 Когда ИИ «слышит» не то: как Grok от Илона Маска обвинил звезду NBA в вандализме
Продолжаем публиковать кейсы провалов искусственного интеллекта — примеры, где технологии дали сбой даже в крупнейших проектах. Сегодня расскажем о Grok, чат-боте от xAI Илона Маска, который в 2024 году оказался в центре громкого скандала.
🏀 В апреле 2024 года Grok ложно обвинил Клэя Томпсона, известного баскетболиста, в том, что он якобы кидал кирпичи в окна домов в Сакраменто. На самом деле Томпсон «бросал кирпичи» — в переносном смысле. В баскетболе “Throwing bricks” означает грубые промахи по кольцу. В последней игре за Golden State Warriors он действительно провел один из худших матчей в карьере, что и породило волну таких комментариев в соцсетях.
Grok, «поглотив» эту информацию из постов на X (бывший Twitter), буквально интерпретировал сленг, превратив метафору в фейковое обвинение в уголовном преступлении.
🧠 Хотя у Grok есть дисклеймер «может ошибаться, перепроверяйте ответы», ситуация поднимает серьёзные вопросы:
🔵 Кто несёт ответственность за подобные ошибки?
🔵 Должен ли ИИ понимать контекст и культурные особенности языка?
🔵 Как защитить репутацию людей от ложных обвинений со стороны ИИ?
💬 Даже один неправильный вывод ИИ может привести к массовым последствиям — особенно если речь идёт о публичных людях.
Продолжаем публиковать кейсы провалов искусственного интеллекта — примеры, где технологии дали сбой даже в крупнейших проектах. Сегодня расскажем о Grok, чат-боте от xAI Илона Маска, который в 2024 году оказался в центре громкого скандала.
🏀 В апреле 2024 года Grok ложно обвинил Клэя Томпсона, известного баскетболиста, в том, что он якобы кидал кирпичи в окна домов в Сакраменто. На самом деле Томпсон «бросал кирпичи» — в переносном смысле. В баскетболе “Throwing bricks” означает грубые промахи по кольцу. В последней игре за Golden State Warriors он действительно провел один из худших матчей в карьере, что и породило волну таких комментариев в соцсетях.
Grok, «поглотив» эту информацию из постов на X (бывший Twitter), буквально интерпретировал сленг, превратив метафору в фейковое обвинение в уголовном преступлении.
🧠 Хотя у Grok есть дисклеймер «может ошибаться, перепроверяйте ответы», ситуация поднимает серьёзные вопросы:
💬 Даже один неправильный вывод ИИ может привести к массовым последствиям — особенно если речь идёт о публичных людях.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥5😁2
Netflix — лидер в мире стриминга, и его рекомендательная система сыграла огромную роль в этом успехе. В своем блоге компания поделилась опытом объединения нескольких отдельных моделей машинного обучения для поиска и рекомендаций в одну многозадачную модель, которая решает несколько проблем одновременно. 🧠
💡 Почему это важно? Традиционно системы рекомендаций создают отдельные модели для различных задач, например: рекомендации на основе пользователя (user-to-item), похожие товары (item-to-item), поиск (query-to-item), и категоризация (category-to-item). Но такой подход приводит к значительным затратам на управление и поддержку множества моделей. Netflix пошёл другим путём и объединил все эти модели в одну.
📊Как это работает?
• Снижение объёма кода и ресурсов: Меньше моделей означает меньше работы по поддержке.
• Быстрое внедрение изменений: Обновления и улучшения распространяются быстрее на всю систему.
• Упрощение масштабирования: Легче масштабировать единую модель, чем множество независимых моделей.
⚙️ Как обеспечивается производительность? Netflix использует специализированные среды для различных типов задач. Например, для обработки данных с высокой задержкой используется инфраструктура, оптимизирующая время отклика. Модели развернуты через гибкий API, что позволяет интегрировать их с различными сервисами и быстро адаптировать систему под разные условия.
🔄 Итог: Объединение ML моделей для рекомендаций контента в Netflix стало не только техническим улучшением, но и стратегическим шагом к оптимизации затрат и улучшению пользовательского опыта. Такой подход позволяет Netflix быстрее реагировать на изменения и задачи, сокращая сложности и затраты.
🔄 Вопрос к вам: Как вы думаете, можно ли применить этот подход в других отраслях для улучшения систем?
📚 Хотите разобраться, как работают рекомендательные системы? Мы подготовили демо-курс "ML в бизнесе" на платформе Stepik, который состоит из 6 лекций на тему рекомендательных систем. Присоединяйтесь и расширяйте свои знания!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🔥3
Сегодня — квиз в нашем канале! ✨
Квиз поможет вам освежить знания и, возможно, узнать что-то новое.
Не упустите шанс проверить себя! 📚
Квиз поможет вам освежить знания и, возможно, узнать что-то новое.
Не упустите шанс проверить себя! 📚
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5
Как вам идея создать изображение в стиле Studio Ghibli с помощью ChatGPT? Благодаря новому инструменту генерации изображений, всего за час ChatGPT смог привлечь 1 миллион новых пользователей! Об этом сообщил Сэм Альтман, CEO OpenAI. Для сравнения, при запуске ChatGPT потребовалось 5 дней, чтобы достичь этого показателя.🔥
Недавний тренд в соцсетях — имитация работ японской анимационной студии Ghibli с помощью ИИ — доказал, на что способен этот инструмент.
🎨 Голос Гибли: Миядзаки, соучредитель Studio Ghibli, выразил своё недовольство, назвав ИИ-генерацию искусством "оскорблением жизни". Для него искусство — это результат усилий и ручной работы, а не алгоритмов. "Если вам нравится создавать странные вещи — пожалуйста, но я бы никогда не использовал эту технологию в своём творчестве", — заявил он.
🚀 Тем не менее, технологии продолжают развиваться, и мы не можем не отметить, какой потенциал они открывают для творчества!
Как вам такие изображения, созданные ИИ? Прикрепляем фотографию наших экспертов в стиле Ghibli — а вы сможете угадать, кто на картинке?👀
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥6😱1😢1
🔍 Что такое регуляризация и зачем она нужна в моделях машинного обучения?
Регуляризация — это техника в машинном обучении, которая помогает предотвратить переобучение модели. Переобучение (или overfitting) происходит, когда модель слишком сильно подстраивается под тренировочные данные, включая случайные отклонения и шум. В результате модель становится слишком "специальной" для этих данных и плохо справляется с новыми, незнакомыми примерами. Регуляризация упрощает модель и помогает модели оставаться более общей и адаптируемой, улучшая её способность работать с новыми данными.
🤔 Как это работает?
Регуляризация вводит дополнительные ограничения в процесс обучения, которые уменьшают свободу модели, заставляя её быть более устойчивой и менее чувствительной к мелким изменениям в данных. Это достигается за счет добавления штрафа за слишком большие коэффициенты в модели.
Основные виды регуляризации:
🔵 L1 регуляризация (Lasso): Добавляет к функции потерь сумму абсолютных значений коэффициентов модели. Это способствует тому, что некоторые коэффициенты становятся равными нулю, что в итоге приводит к сжатию модели и выделению наиболее важных признаков.
🔵 L2 регуляризация (Ridge): Добавляет сумму квадратов коэффициентов к функции потерь. Это помогает уменьшить величину коэффициентов, не обнуляя их, что делает модель более гладкой и предотвращает излишнюю чувствительность.
🔵 Elastic Net: Это комбинация L1 и L2 регуляризаций, которая использует преимущества обоих методов и помогает при работе с сильно коррелированными признаками.
〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️
👀 Спойлер: В пятницу стартует новая серия постов, где мы будем разбирать популярные вопросы с собеседований. В первом посте вопросы на тему регуляризации 🤫
Регуляризация — это техника в машинном обучении, которая помогает предотвратить переобучение модели. Переобучение (или overfitting) происходит, когда модель слишком сильно подстраивается под тренировочные данные, включая случайные отклонения и шум. В результате модель становится слишком "специальной" для этих данных и плохо справляется с новыми, незнакомыми примерами. Регуляризация упрощает модель и помогает модели оставаться более общей и адаптируемой, улучшая её способность работать с новыми данными.
🤔 Как это работает?
Регуляризация вводит дополнительные ограничения в процесс обучения, которые уменьшают свободу модели, заставляя её быть более устойчивой и менее чувствительной к мелким изменениям в данных. Это достигается за счет добавления штрафа за слишком большие коэффициенты в модели.
Основные виды регуляризации:
👀 Спойлер: В пятницу стартует новая серия постов, где мы будем разбирать популярные вопросы с собеседований. В первом посте вопросы на тему регуляризации 🤫
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14🔥5👍1
🔥 Вопросы с собеседований
Собеседования по ML-теории, математической статистике, Python и Big Data проводятся на всех уровнях вакансий на ML позиции. Данный этап является ключевым для Junior специалистов.
🔎 Мы подготовили несколько вопросов, которые могут встретиться на интервью! Наши ответы на них мы опубликуем в отдельном посте в понедельник.
А сейчас ждём ваших ответов в комментариях!
📌 Вопросы:
1️⃣ Как можно бороться с переобучением? Назовите основные способы.
2️⃣ Чем L1-регуляризация отличается от L2-регуляризации? В каких случаях их применять?
#собеседования_MLinside
Собеседования по ML-теории, математической статистике, Python и Big Data проводятся на всех уровнях вакансий на ML позиции. Данный этап является ключевым для Junior специалистов.
🔎 Мы подготовили несколько вопросов, которые могут встретиться на интервью! Наши ответы на них мы опубликуем в отдельном посте в понедельник.
А сейчас ждём ваших ответов в комментариях!
📌 Вопросы:
1️⃣ Как можно бороться с переобучением? Назовите основные способы.
2️⃣ Чем L1-регуляризация отличается от L2-регуляризации? В каких случаях их применять?
#собеседования_MLinside
❤10
🔥 Ответы на вопросы с собеседований
1️⃣ Как можно бороться с переобучением? Назови основные способы.
2️⃣ Чем L1-регуляризация отличается от L2-регуляризации? В каких случаях их применять?
〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
#собеседования_MLinside
1️⃣ Как можно бороться с переобучением? Назови основные способы.
1) Для линейных моделей - L1 и L2.
2) Для деревьев - pre-/post-prunning.
3) Для knn - выбор кол-ва соседей, выбор функции расчёта расстояния.
4) Для всех моделей - различные уменьшения сложности модели, например через отбор признаков, уменьшение слоёв или нейронов в нейросетях / Data augmantation / Dropout / проведение кросс-валидации / Early stopping
2️⃣ Чем L1-регуляризация отличается от L2-регуляризации? В каких случаях их применять?
1) L1-регуляризация (Lasso) добавляет штраф пропорциональный абсолютным значениям весов модели. Может занулить веса у неинформативных признаков, потому применяется для их отбора.
2) L2-регуляризация (Ridge) добавляет штраф пропорциональный квадратам весов модели. Значимо уменьшает величину весов. Применяется, когда признаки коррелированы, и важно, чтобы модель учитывала их, но без сильного преувеличения их важности.
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
#собеседования_MLinside
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥7
Когда ты дата-сайентист в 2025 году... и тебе нужно успеть справиться с всем! 😅
Решили разбавить наш канал чем-то лёгким и забавным:) В комментариях делитесь своим мнением, что самое сложное в профессии, и как справляетесь с многозадачностью?
Также можете поделиться своим любимым мемом про DS/ML🙂
Решили разбавить наш канал чем-то лёгким и забавным:) В комментариях делитесь своим мнением, что самое сложное в профессии, и как справляетесь с многозадачностью?
Также можете поделиться своим любимым мемом про DS/ML
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23😁3❤1💯1
🔍 Как Duolingo с помощью ИИ меняет подход к обучению языкам
Duolingo, когда-то просто приложение для изучения языков, теперь превращается в настоящий ИИ-гигант, который меняет подходы к обучению благодаря внедрению машинного обучения и искусственного интеллекта.
📈 Как Duolingo применяет ИИ?
Space Repetition System: Первая ИИ-система Duolingo, которая помогает предсказать, сколько времени потребуется, чтобы запомнить слово, и автоматически подбирает задачи в зависимости от вашего прогресса.
BirdBrain: Эта система уже знает, когда вам стоит предложить более сложное задание или снизить сложность, даже до того, как вы начнёте его выполнять!
Smart Tips: В реальном времени ИИ анализирует ваши ошибки и предлагает персонализированные подсказки, чтобы помочь вам быстрее освоить материал.
Персонажи с AI-поддержкой для практики разговорного языка: В Duolingo недавно появилась новая функция, основанная на LLM. Пользователи могут общаться с персонажем в формате, напоминающем FaceTime. Этот инструмент позволяет проводить естественные диалоги, моделируя разговорную практику в комфортной обстановке, адаптированной к уровню знаний пользователя.
🧠 Но есть и другой, неожиданный момент... В 2024 году компания уволила 10% своих контрактных сотрудников, переместив фокус на использование ИИ для создания и распространения контента. Подобные шаги показывают, как сильно Duolingo ориентируется на технологии и оптимизацию процессов с помощью ИИ.
🚀 Интересно, как ИИ изменит обучение в других сферах? Поделитесь своим мнением в комментариях! 👇
Duolingo, когда-то просто приложение для изучения языков, теперь превращается в настоящий ИИ-гигант, который меняет подходы к обучению благодаря внедрению машинного обучения и искусственного интеллекта.
📈 Как Duolingo применяет ИИ?
Space Repetition System: Первая ИИ-система Duolingo, которая помогает предсказать, сколько времени потребуется, чтобы запомнить слово, и автоматически подбирает задачи в зависимости от вашего прогресса.
BirdBrain: Эта система уже знает, когда вам стоит предложить более сложное задание или снизить сложность, даже до того, как вы начнёте его выполнять!
Smart Tips: В реальном времени ИИ анализирует ваши ошибки и предлагает персонализированные подсказки, чтобы помочь вам быстрее освоить материал.
Персонажи с AI-поддержкой для практики разговорного языка: В Duolingo недавно появилась новая функция, основанная на LLM. Пользователи могут общаться с персонажем в формате, напоминающем FaceTime. Этот инструмент позволяет проводить естественные диалоги, моделируя разговорную практику в комфортной обстановке, адаптированной к уровню знаний пользователя.
🧠 Но есть и другой, неожиданный момент... В 2024 году компания уволила 10% своих контрактных сотрудников, переместив фокус на использование ИИ для создания и распространения контента. Подобные шаги показывают, как сильно Duolingo ориентируется на технологии и оптимизацию процессов с помощью ИИ.
🚀 Интересно, как ИИ изменит обучение в других сферах? Поделитесь своим мнением в комментариях! 👇
❤13🔥5👍1
🤖 🔮 Как ИИ изменит мир к 2027 году?
Будущее искусственного интеллекта уже не кажется таким далеким, как мы думали. Искусственный интеллект спасет нас или приведет к нашему краху? Будет ли развитие ИИ спасением или угрозой? — Эти вопросы ставит перед собой новый отчет AI 2027, созданный исследовательским проектом AI Futures Project.
👤 Кто стоит за этим проектом?
Дэниэль Кокотайло, исполнительный директор AI Futures Project, бывший сотрудник OpenAI. Он решился представить свою версию того, что будет с ИИ в будущем. В 2021 году Дэниэль Кокотайло попытался предсказать будущее ИИ, и многие из его прогнозов уже сбылись.
Отчет AI 2027, который основан на существующих исследованиях и экспертных оценках, дает нам картину того, что может случиться, если ИИ продолжит развиваться такими темпами.
Важные моменты из отчета:
🚀 Конец 2025 года: ИИ станет настолько мощным, что системы будут способны адаптироваться к новым задачам и работать на автопилоте. Это откроет новые возможности, но и создаст риски, связанные с потерей контроля.
🌍 Конец 2026 года: Китай начнет использовать ИИ-агентов для ускорения развития и проникновения на международные рынки. Это приведет к глобальной гонке за лидерство в области ИИ, где каждая страна будет бороться за технологическое превосходство.
💼 2027 год: Массовая автоматизация труда и увольнения — последствия ИИ для рабочего рынка. Рост экономики будет неравномерным: если одни страны и компании будут процветать, то другие окажутся на обочине.
⚠️ Конец 2027 года: В конце концов, мир столкнется с угрозой или примет решение замедлить развитие ИИ и усилить контроль за безопасностью. Это будет момент истины — когда человечество должно будет решить, как двигаться дальше.
🤔 Как вы считаете, насколько реалистичен прогноз, представленный в отчете AI 2027? Возможно ли, что ИИ действительно достигнет такого уровня развития уже в ближайшие несколько лет? И стоит ли нам беспокоиться?
Будущее искусственного интеллекта уже не кажется таким далеким, как мы думали. Искусственный интеллект спасет нас или приведет к нашему краху? Будет ли развитие ИИ спасением или угрозой? — Эти вопросы ставит перед собой новый отчет AI 2027, созданный исследовательским проектом AI Futures Project.
👤 Кто стоит за этим проектом?
Дэниэль Кокотайло, исполнительный директор AI Futures Project, бывший сотрудник OpenAI. Он решился представить свою версию того, что будет с ИИ в будущем. В 2021 году Дэниэль Кокотайло попытался предсказать будущее ИИ, и многие из его прогнозов уже сбылись.
Отчет AI 2027, который основан на существующих исследованиях и экспертных оценках, дает нам картину того, что может случиться, если ИИ продолжит развиваться такими темпами.
Важные моменты из отчета:
🚀 Конец 2025 года: ИИ станет настолько мощным, что системы будут способны адаптироваться к новым задачам и работать на автопилоте. Это откроет новые возможности, но и создаст риски, связанные с потерей контроля.
🌍 Конец 2026 года: Китай начнет использовать ИИ-агентов для ускорения развития и проникновения на международные рынки. Это приведет к глобальной гонке за лидерство в области ИИ, где каждая страна будет бороться за технологическое превосходство.
💼 2027 год: Массовая автоматизация труда и увольнения — последствия ИИ для рабочего рынка. Рост экономики будет неравномерным: если одни страны и компании будут процветать, то другие окажутся на обочине.
⚠️ Конец 2027 года: В конце концов, мир столкнется с угрозой или примет решение замедлить развитие ИИ и усилить контроль за безопасностью. Это будет момент истины — когда человечество должно будет решить, как двигаться дальше.
🤔 Как вы считаете, насколько реалистичен прогноз, представленный в отчете AI 2027? Возможно ли, что ИИ действительно достигнет такого уровня развития уже в ближайшие несколько лет? И стоит ли нам беспокоиться?
🔥6❤2
💬 Внимание, опрос!
В последние месяцы вопросы о том, как ИИ будет влиять на профессии в области машинного обучения и анализа данных, становятся всё более актуальными.
Мы решили узнать ваше мнение! Поделитесь, как вы считаете — заменит ли ИИ специалистов в этих областях в ближайшие годы?
Давайте разберемся, что думает большинство! 🧐
В последние месяцы вопросы о том, как ИИ будет влиять на профессии в области машинного обучения и анализа данных, становятся всё более актуальными.
Мы решили узнать ваше мнение! Поделитесь, как вы считаете — заменит ли ИИ специалистов в этих областях в ближайшие годы?
Давайте разберемся, что думает большинство! 🧐
❤6
Заменит ли ИИ в ближайшие 5 лет дата сайентистов и ML-инженеров?
Anonymous Poll
10%
Да, полностью заменит
36%
Нет, люди всегда будут нужны
55%
Частично, задачи будут делиться
🔥 Задачи с собеседований
Собеседование на ML-специалиста часто включает не только вопросы по алгоритмам и теории, но и глубокое понимание Python. А знание тонкостей языка может решить исход интервью!
Сегодня предлагаем вам разобрать задачи с реальных интервью. Наши ответы опубликуем в понедельник, а пока — проверьте себя и оставьте свои ответы в комментариях!
📌 Вопросы:
1️⃣ В чём различие операторов “==” и “is” в Python? Что вернёт следующий код?
2️⃣ Дополнительная задача повышенной сложности по знанию Python - что вернёт этот код и почему?
#собеседования_MLinside
Собеседование на ML-специалиста часто включает не только вопросы по алгоритмам и теории, но и глубокое понимание Python. А знание тонкостей языка может решить исход интервью!
Сегодня предлагаем вам разобрать задачи с реальных интервью. Наши ответы опубликуем в понедельник, а пока — проверьте себя и оставьте свои ответы в комментариях!
📌 Вопросы:
list_A = [1, 2, 3]
list_B = [1, 2, 3]
sample_A = None
sample_B = None
print(list_A == list_B)
print(list_A is list_B)
print(sample_A == sample_B)
print(sample_A is sample_B)
A = 13
B = 13
print(A == B)
print(A is B)
#собеседования_MLinside
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥4👍1