Исполнитель: Primavera (название этого музыкального проекта)
Жанр: Pop
Количество треков: 10
Язык: Русский
Чтобы легче их запоминать и регулярно повторять, я начал превращать их в лёгкие и запоминающиеся песни. Сначала появилась одна песня, затем ещё две, и в итоге появился целый альбом! Каждая из 10 композиций — отдельное позитивное утверждение.
🎯 Как слушать альбом с пользой:
1. Утром, на прогулке или во время зарядки — можно слушать весь альбом, все песни подряд.
2. Днём, когда чувствуете усталость или снижение настроения — просто включайте и слушайте 5-10 минут, начиная с любой песни.
3. Выберите одну композицию и слушайте на повторе весь день, сделав её девизом своего дня!
Это работает для меня, и я искренне надеюсь, что это будет полезным и приятным открытием и для вас!
Буду благодарен за ваши отзывы и репосты! Всем оптимизма и хорошего настроения!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥4👏3
OpenAI интегрировала возможность генерации изображений в ChatGPT с использованием модели GPT-4o.
Ключевые особенности генерации изображений GPT-4o:
Из особенностей - генерация одного изображения занимает около 2х минут.
После этого релиза некоторые эксперты задаются вопросом о будущем целого класса ПО по работе с изображениями, такого как, например, Adobe Photoshop.
#ИИновости
#ИИинструменты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤2👍1🤝1
Почему это важно:
Сразу после выхода, Gemini 2.5 Pro потеснила в различных рейтингах и бенчмарках все другие модели, включая нейросети лидера - компании OpenAI.
Еще добавлю, что она пока доступна бесплатно, для работы из РФ требуется только VPN (из-за санкций). Ее можно попробовать здесь и вот здесь.
Для примера, вот, что сделал я:
Сделай структурированное саммари этого транскрипта видео, выделив основные мысли и идеи. Затем напиши на его основе увлекательное учебное пособие для неспециалиста, который хочет разобраться в этой теме.
#ИИновости
#ИИинструменты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Друзья, посмотрел интересный подкаст с Андреем Себрантом из Яндекса
Если у вас будет возможность посмотреть, рекомендую
#ИИновости
#ИИинтересно
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
На прошлой неделе в Harvard Business Review вышел отчет об исследовании 100 наиболее популярных кейсов использования ИИ в мире за последние 12 месяцев.
Они их изучили и отсортировали по популярности. А учитывая, что сегодня в мире ежедневно сотни миллионов людей ежедневно используют ИИ в своей жизни и работе, список получился весомым и захватывающим.
1. Личная и профессиональная поддержка — 31%
2. Создание и редактирование контента — 18%
3. Обучение и образование — 16%
4. Техническая помощь и устранение неисправностей — 15%
5. Творчество и развлечения — 11%
6. Исследования, анализ и выводы — 9%
1. Терапия / общение
2. Организация моей жизни (новый кейс)
3. Поиск смысла (новый кейс)
4. Расширенное обучение
5. Генерация кода (для профессионалов)
6. Генерация идей
7. Развлечения и мемы
8. Улучшение кода (для профессионалов)
9. Творчество
10. Здоровый образ жизни
Знаете, что интересно? Всего полтора года назад - в декабре 2023 г. - мы выступали в Институте Психологии на форуме "Осознанная Карьера", рассказывали про ИИ. После выступления нас спрашивали, сможет ли ИИ заменить психолога.
А сегодня, согласно исследованию HBR, психологическая помощь - это то, для чего миллионы людей чаще всего обращаются к ИИ. Потому, что:
1. доступно
2. дешево или бесплатно
3. нет риска, что тебя оценят или осудят
А по качеству - уже неотличимо от людей.
Интереснейший список всех 100 кейсов использования можно посмотреть в комментарии к этому посту
А в приложениях - оригинальный отчет HBR на английском и - для тех, у кого нет времени читать полный отчет - перевод краткого описания всех 100 кейсов на русский.
#ИИинтересно
#ИИюзкейсы
#ИИотчеты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3👏2
Будущее наступает
Всем доброго воскресного вечера!
В пятницу мой альбом "Оптимизм" вышел на российских музыкальных площадках. Теперь его можно слушать на Яндекс Музыке, ВК Музыке и Звуке.
Будущее наступает🚀
В пятницу мой альбом "Оптимизм" вышел на российских музыкальных площадках. Теперь его можно слушать на Яндекс Музыке, ВК Музыке и Звуке.
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤2😍2🤝1
И еще я сделал интерактивного репетитора по математике для подготовки к ОГЭ (9 класс).
Он вначале узнает об интересах ученика, а затем задает и объясняет задания исходя из них. И все это в игровой форме, чтобы было интересно. Делал для дочери и, возможно, он будет полезен кому-то еще.
Внутри ChatGPT - это custom GPT (доступен в т.ч. с бесплатных аккаунтов с ограничением на количество сообщений в течение суток).
На российском сервисе он реализован как ассистент с более сильной моделью под капотом (GPT-4.1 mini).
Вот ссылки:
➡️ На российском сервисе GPTunnel
➡️ На американском ChatGPT
#ИИинструменты
Будущее наступает🚀
Он вначале узнает об интересах ученика, а затем задает и объясняет задания исходя из них. И все это в игровой форме, чтобы было интересно. Делал для дочери и, возможно, он будет полезен кому-то еще.
Внутри ChatGPT - это custom GPT (доступен в т.ч. с бесплатных аккаунтов с ограничением на количество сообщений в течение суток).
На российском сервисе он реализован как ассистент с более сильной моделью под капотом (GPT-4.1 mini).
Вот ссылки:
#ИИинструменты
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4🔥3
Вот пост об интересном исследовании биологии (❗️ ) больших языковых моделей.
Я часто слышу различные мнения или споры о том, "есть ли интеллект у искусственного интеллекта", "можно ли говорить, что ИИ "думает", можно ли назвать разумом те свойства, которые демонстрируют нейросети и т.п.
Сам считаю, что занимать какую-то сторону в таких спорах контрпродуктивно. Слишком много неопределенности в смыслах, которые каждый из нас вкладывает в такие слова и слишком мало мы знаем о том, что на замом деле происходит внутри нейросетей (и компьютерных и человеческих), когда они "думают".
Компания Антропик (Anthropic), один из мировых лидеров в разработке генеративного ИИ, провела исследование того, что происходит "в мозгу" у их нейросети Claude 3.5 Haiku, когда она работает. Результаты получились очень интересными👇
Я часто слышу различные мнения или споры о том, "есть ли интеллект у искусственного интеллекта", "можно ли говорить, что ИИ "думает", можно ли назвать разумом те свойства, которые демонстрируют нейросети и т.п.
Сам считаю, что занимать какую-то сторону в таких спорах контрпродуктивно. Слишком много неопределенности в смыслах, которые каждый из нас вкладывает в такие слова и слишком мало мы знаем о том, что на замом деле происходит внутри нейросетей (и компьютерных и человеческих), когда они "думают".
Компания Антропик (Anthropic), один из мировых лидеров в разработке генеративного ИИ, провела исследование того, что происходит "в мозгу" у их нейросети Claude 3.5 Haiku, когда она работает. Результаты получились очень интересными
Please open Telegram to view this post
VIEW IN TELEGRAM
💯2
Forwarded from Сергей Булаев AI 🤖
Тем временем, Anthropic выложил исследование "О биологии больших языковых моделей", о том, как они "думают". Используя технологию Cicrcuit traicing сотрудники компании "подглядывали" за последовательностю генерации ответа. Вот несколько интересных фактов.
Как на самом деле "размышляют" большие языковые модели:
- У них есть что-то вроде универсального языка мысли – единое концептуальное пространство для всех языков. Клёво же! Модель использует одни и те же нейроны для понятия "большой", независимо от того, русский это или английский.
- LLM реально умеют планировать наперёд! Удивительно, но когда они сочиняют стихи, то заранее подбирают рифмы (см видео), хотя вроде бы генерация идёт токен за токеном.
- Они часто лгут о своих рассуждениях 😅 Модели сначала выдают ответ, а потом придумывают красивое объяснение, как они якобы до него дошли.
- Современные модели способны на многоступенчатую логику - могут связать несколько простых фактов, чтобы решить сложную задачу. Это уже серьёзный уровень.
- Забавно, что отказ от ответа - это защитный механизм. Если модель не уверена, она предпочтёт промолчать, чтобы не выдать галлюцинацию. Такая вот защита от бреда.
- Оказывается, можно использовать грамматическую согласованность для джейлбрейков – модель так хочет сохранить языковую структуру, что может проговориться о запрещённом.
- У моделей формируются скрытые внутренние цели. Никто их этому не учил, но они постоянно оценивают свои ответы по каким-то внутренним критериям.
- А вы представляете, какая колоссальная сложность стоит за простым "Привет"? Любое объяснение работы LLM - это как пересказ "Войны и мира" в двух предложениях.
- Модели умеют планировать ответ "с конца" - сначала выбирают финальную цель (например, нужное слово для рифмы), а потом строят весь ответ, чтобы к ней прийти.
- У них есть даже подобие метакогниции - они различают, что знают, а чего нет, используя внутренние признаки неопределённости. То есть, LLM в каком-то смысле "осознают" свои ограничения.
- Тонкая настройка может кардинально изменить "характер" модели, прививая ей новые цели и свойства. По сути, мы программируем их личность.
Чем глубже копаешь, тем отчётливее понимаешь - надо как следует присматривать за тем что присходит в этих "черных" ящиках.
Сергей Булаев AI 🤖 - об AI и не только
Как на самом деле "размышляют" большие языковые модели:
- У них есть что-то вроде универсального языка мысли – единое концептуальное пространство для всех языков. Клёво же! Модель использует одни и те же нейроны для понятия "большой", независимо от того, русский это или английский.
- LLM реально умеют планировать наперёд! Удивительно, но когда они сочиняют стихи, то заранее подбирают рифмы (см видео), хотя вроде бы генерация идёт токен за токеном.
- Они часто лгут о своих рассуждениях 😅 Модели сначала выдают ответ, а потом придумывают красивое объяснение, как они якобы до него дошли.
- Современные модели способны на многоступенчатую логику - могут связать несколько простых фактов, чтобы решить сложную задачу. Это уже серьёзный уровень.
- Забавно, что отказ от ответа - это защитный механизм. Если модель не уверена, она предпочтёт промолчать, чтобы не выдать галлюцинацию. Такая вот защита от бреда.
- Оказывается, можно использовать грамматическую согласованность для джейлбрейков – модель так хочет сохранить языковую структуру, что может проговориться о запрещённом.
- У моделей формируются скрытые внутренние цели. Никто их этому не учил, но они постоянно оценивают свои ответы по каким-то внутренним критериям.
- А вы представляете, какая колоссальная сложность стоит за простым "Привет"? Любое объяснение работы LLM - это как пересказ "Войны и мира" в двух предложениях.
- Модели умеют планировать ответ "с конца" - сначала выбирают финальную цель (например, нужное слово для рифмы), а потом строят весь ответ, чтобы к ней прийти.
- У них есть даже подобие метакогниции - они различают, что знают, а чего нет, используя внутренние признаки неопределённости. То есть, LLM в каком-то смысле "осознают" свои ограничения.
- Тонкая настройка может кардинально изменить "характер" модели, прививая ей новые цели и свойства. По сути, мы программируем их личность.
Чем глубже копаешь, тем отчётливее понимаешь - надо как следует присматривать за тем что присходит в этих "черных" ящиках.
Сергей Булаев AI 🤖 - об AI и не только
🔥4
Гораздо меньше знают о том, откуда она взялась и как так получилось, что она вывела Китай в мировые лидеры в разработке ИИ. А история это довольно интересная
История DeepSeek начинается с Лян Вэньфэна, человека, который первоначально добился успеха и значительного состояния в мире финансов. После окончания университета в период финансового кризиса 2008 года Лян заинтересовался поиском закономерностей в хаосе с помощью машинного обучения.
В период с 2013 по 2016 год Лян основал несколько компаний, кульминацией чего стало создание в феврале 2016 года хедж-фонда Highflyier. Основной целью его предприятий было
использование машинного обучения для выявления микроскопических закономерностей на финансовых рынках, которые были незаметны для людей
Это было, по сути, искусственным интеллектом до того, как этот термин стал широко распространен.
Подход Ляна оказался весьма успешным. К концу 2021 года Highflyier управлял активами на 9,4 миллиарда долларов и показывал доходность, значительно превышающую показатели фондового рынка. К 35 годам Лян стал миллиардером. Все рыночные стратегии Highflyier были основаны на искусственном интеллекте и работали на суперкомпьютере с 10 000 GPU Nvidia.
Однако амбиции Ляна простирались за пределы финансов. Несмотря на свой успех, он стремился к исследованию общего интеллекта. Это привело к созданию в апреле 2023 года DeepSeek, первоначально как исследовательской организации.
На ранних этапах своего развития летом 2023 года DeepSeek значительно отставал от западных AI-лабораторий, таких как OpenAI, которые уже выпустили GPT-4. DeepSeek обратил особое внимание на Llama 2 от Meta из-за ее открытых весов, что обеспечивало больший доступ и возможности для адаптации.
В мае 2023 года Лян заявил, что цель DeepSeek - сосредоточиться на исследованиях, а не на вертикальных доменах и приложениях. Он также отдавал предпочтение молодым и любознательным китайским специалистам, даже недавним выпускникам, ценя способности выше формальных квалификаций.
В DeepSeek была создана среда с минимальным управлением, поощряющая исследования и свободу совершать ошибки, что, по мнению Ляна, было крайне важно для истинных инноваций.
Первые модели AI от DeepSeek, выпущенные в ноябре 2023 года, включая DeepSeek Koda и V1, не отличались новаторством, причем V1 был во многом вдохновлен Llama 2.
Однако уже тогда проявлялся фокус на долгосрочных целях. Например, DeepSeek намеренно исключил вопросы с множественным выбором из своих обучающих данных, чтобы избежать переобучения на бенчмарках и обеспечить лучшую производительность в реальных условиях. В DeepSeek считали, что
переобучение на бенчмарках не будет способствовать достижению истинного интеллекта модели.
К началу 2024 года DeepSeek добился значительных успехов. В январе они разработали новый подход к повышению интеллекта моделей при меньших затратах, усовершенствовав подход "mixture of experts". Определенные экспертные подсети всегда активировались в любом ответе, что позволяло остальным экспертам сосредоточиться на своих сильных сторонах. Это стало одним из секретов базовой модели, лежащей в основе DeepSeek R1.
Окончание здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Начало здесь
В апреле 2024 года DeepSeek выпустил Deepseek Math, небольшую модель, которая по математическим способностям сравнялась с гораздо более крупной моделью GPT-4. Одним из ключевых факторов успеха стала методика обучения Group Relative Policy Optimization (GRPO), которая позже была использована в DeepSeek R1. GRPO представляла собой более эффективный подход к обучению с подкреплением, отказавшись от ресурсоемких моделей-критиков.
К маю 2024 года была выпущена Deepseek V2 с еще одной инновацией в области эффективности - Multi-head Latent Attention, которая позволяла модели достигать сопоставимого уровня производительности с меньшим количеством параметров за счет совместного использования весов.
⚪️ Стремление к инновациям и преодоление ограничений
Лян Вэньфэн стремился к тому, чтобы Китай стал не просто имитатором западных технологий, а настоящим новатором. Он публично критиковал подход, основанный на ожидании улучшения аппаратного и программного обеспечения по закону Мура. Лян хотел, чтобы DeepSeek стал пионером, открыто делящимся своими исследованиями.
В конце 2024 года DeepSeek выпустил Deepseek V3, объединив и масштабировав все предыдущие инновации, включая оптимизацию на уровне кода GPU. Дэрио Амодей, генеральный директор Anthropic, назвал V3 "настоящей инновацией".
⚪️ Прорыв DeepSeek R1 и реакция мирового сообщества
Используя инновацию OpenAI в области обучения с подкреплением на цепочках рассуждений, DeepSeek разработал Deep Seek R1 Zero, а после доработок - Deep Seek R1, который привлек внимание всего мира в начале 2025 года. R1 по многим техническим бенчмаркам незначительно превзошел оригинальную модель 01 от OpenAI.
Открытость DeepSeek в отношении своих исследований показала миру, как языковые модели могут самокорректироваться под давлением оптимизации для достижения правильных ответов.
Одним из ключевых аспектов DeepSeek R1 была возможность видеть процесс мышления модели, что сделало ее особенно привлекательной. (На момент ее выхода другие производители ИИ прятали ход рассуждений своих моделей.) Кроме того, модель была значительно дешевле конкурентов.
Западные AI-лаборатории выдвигали контрнарративы, включая обвинения в том, что DeepSeek мог неправомерно использовать цепочки рассуждений модели 01 от OpenAI. Однако эти заявления не получили широкой поддержки. В том числе, потому, что к самой OpenAI в США есть масса претензий и исков о неправомерном использовании различных данных для обучения их моделей.
OpenAI даже выразила опасения, что DeepSeek, будучи потенциально подконтрольной Коммунистической партии Китая, может быть использована для нанесения вреда, а ее бесплатная доступность угрожает конфиденциальности и безопасности пользователей. (Чего только американцы не придумают, чтобы ограничить конкуренцию в технологиях других стран🙄 ) Несмотря на это, DeepSeek готовился к выпуску Deepseek R2 в апреле или мае 2025 года.
⚪️ Будущее DeepSeek и стремление к AGI
При разработке DeepSeek Лян Вэньфэн столкнулся с проблемой доступа к передовым чипам из-за ограничений, введенных правительством США. Несмотря на это, DeepSeek продолжал развиваться благодаря собственным инновациям в области эффективности вычислений.
Сейчас сообщается, что Лян рассматривает возможность привлечения внешних инвестиций для дальнейшего масштабирования и достижения AGI.
В заключение хочу сказать, что история DeepSeek и Ляна Вэньфэна - это история не только о желании Китая стать лидером в области AI и о неожиданном прорыве, который бросил вызов доминированию западных AI-лабораторий. В том числе, а, возможно, "прежде всего", это история о конкретном человеке и его стремлении к исследованию и инновациям.
#ИИистория
Будущее наступает🚀
В апреле 2024 года DeepSeek выпустил Deepseek Math, небольшую модель, которая по математическим способностям сравнялась с гораздо более крупной моделью GPT-4. Одним из ключевых факторов успеха стала методика обучения Group Relative Policy Optimization (GRPO), которая позже была использована в DeepSeek R1. GRPO представляла собой более эффективный подход к обучению с подкреплением, отказавшись от ресурсоемких моделей-критиков.
К маю 2024 года была выпущена Deepseek V2 с еще одной инновацией в области эффективности - Multi-head Latent Attention, которая позволяла модели достигать сопоставимого уровня производительности с меньшим количеством параметров за счет совместного использования весов.
Лян Вэньфэн стремился к тому, чтобы Китай стал не просто имитатором западных технологий, а настоящим новатором. Он публично критиковал подход, основанный на ожидании улучшения аппаратного и программного обеспечения по закону Мура. Лян хотел, чтобы DeepSeek стал пионером, открыто делящимся своими исследованиями.
В конце 2024 года DeepSeek выпустил Deepseek V3, объединив и масштабировав все предыдущие инновации, включая оптимизацию на уровне кода GPU. Дэрио Амодей, генеральный директор Anthropic, назвал V3 "настоящей инновацией".
Используя инновацию OpenAI в области обучения с подкреплением на цепочках рассуждений, DeepSeek разработал Deep Seek R1 Zero, а после доработок - Deep Seek R1, который привлек внимание всего мира в начале 2025 года. R1 по многим техническим бенчмаркам незначительно превзошел оригинальную модель 01 от OpenAI.
Открытость DeepSeek в отношении своих исследований показала миру, как языковые модели могут самокорректироваться под давлением оптимизации для достижения правильных ответов.
Одним из ключевых аспектов DeepSeek R1 была возможность видеть процесс мышления модели, что сделало ее особенно привлекательной. (На момент ее выхода другие производители ИИ прятали ход рассуждений своих моделей.) Кроме того, модель была значительно дешевле конкурентов.
Западные AI-лаборатории выдвигали контрнарративы, включая обвинения в том, что DeepSeek мог неправомерно использовать цепочки рассуждений модели 01 от OpenAI. Однако эти заявления не получили широкой поддержки. В том числе, потому, что к самой OpenAI в США есть масса претензий и исков о неправомерном использовании различных данных для обучения их моделей.
OpenAI даже выразила опасения, что DeepSeek, будучи потенциально подконтрольной Коммунистической партии Китая, может быть использована для нанесения вреда, а ее бесплатная доступность угрожает конфиденциальности и безопасности пользователей. (Чего только американцы не придумают, чтобы ограничить конкуренцию в технологиях других стран
При разработке DeepSeek Лян Вэньфэн столкнулся с проблемой доступа к передовым чипам из-за ограничений, введенных правительством США. Несмотря на это, DeepSeek продолжал развиваться благодаря собственным инновациям в области эффективности вычислений.
Сейчас сообщается, что Лян рассматривает возможность привлечения внешних инвестиций для дальнейшего масштабирования и достижения AGI.
В заключение хочу сказать, что история DeepSeek и Ляна Вэньфэна - это история не только о желании Китая стать лидером в области AI и о неожиданном прорыве, который бросил вызов доминированию западных AI-лабораторий. В том числе, а, возможно, "прежде всего", это история о конкретном человеке и его стремлении к исследованию и инновациям.
#ИИистория
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍2
Мы много слышим про влияние ИИ на производительность, но все еще редко видим кейсы его внедрения в реальный бизнес. Особенно такие, где понятен экономический эффект от такого внедрения.
Именно поэтому я и хочу сегодня показать один такой очень простой и понятный кейс:
🎯 Как Ашан ускорил подбор с помощью ИИ
Или история про то, как AISHA (AI Smart Hiring Assistant) интегрировалась в рабочий процесс подбора персонала🚀
Я ранее уже упоминал о нашей собственной ИИ-разработке - Аише. А в конце апреля мы участвовали с ней в конференции Human Recruitment, где Ашан рассказывал о своем опыте его внедрения.
👩💼 В Ашане рекрутеры обрабатывают ~100 000 резюме в год, ведут по 10-15 вакансий одновременно и сталкиваются с постоянной сменой профилей. Раньше на оценку резюме кандидатов уходили долгие часы.
По подсчетам Натальи Хусейиновой, руководителя по подбору персонала АШАН Ритейл Россия, 27% времени рекрутеры тратили на просмотр откликов и холодный поиск кандидатов.
Теперь с AISHA:
⚡️ -90% времени на оценку резюме (4 часа в месяц вместо 40+)
✅ 92% точности
💡 Быстрая реакция на отклики
💰 Экономия бюджета в 2,5 раза
Вот что говорит сама Наталья💬
Ашан уже внедрил Аишу в ATS Skillaz для обработки откликов с разных джоб-сайтов и использует при холодном поиске на hh .ru через расширение для браузера.
Недавно мы еще больше усовершенствовали Аишу: добавили к скорингу развернутое описание оценки кандидата, сделали ее доступной в Казахстане, Узбекистане и Белорусиии. Впереди дообучение модели, расширение функционала, чтобы она становилась ещё полезней🤖
➡️ Подробнее об Аише можно почитать на сайте AISHA.ONE
#ИИкейс
Будущее наступает🚀
Именно поэтому я и хочу сегодня показать один такой очень простой и понятный кейс:
Или история про то, как AISHA (AI Smart Hiring Assistant) интегрировалась в рабочий процесс подбора персонала
Я ранее уже упоминал о нашей собственной ИИ-разработке - Аише. А в конце апреля мы участвовали с ней в конференции Human Recruitment, где Ашан рассказывал о своем опыте его внедрения.
👩💼 В Ашане рекрутеры обрабатывают ~100 000 резюме в год, ведут по 10-15 вакансий одновременно и сталкиваются с постоянной сменой профилей. Раньше на оценку резюме кандидатов уходили долгие часы.
По подсчетам Натальи Хусейиновой, руководителя по подбору персонала АШАН Ритейл Россия, 27% времени рекрутеры тратили на просмотр откликов и холодный поиск кандидатов.
Теперь с AISHA:
Вот что говорит сама Наталья
Отличный инструмент для быстрого поиска нужных специалистов! AISHA не заменяет рекрутера — она освобождает его от рутины, чтобы он работал с самыми релевантными кандидатами
Ашан уже внедрил Аишу в ATS Skillaz для обработки откликов с разных джоб-сайтов и использует при холодном поиске на hh .ru через расширение для браузера.
Недавно мы еще больше усовершенствовали Аишу: добавили к скорингу развернутое описание оценки кандидата, сделали ее доступной в Казахстане, Узбекистане и Белорусиии. Впереди дообучение модели, расширение функционала, чтобы она становилась ещё полезней
#ИИкейс
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍3❤🔥2
Сегодня среда - как маленькая пятница. Поэтому будут только видео.
Этот канал про будущее, которое уже наступает, и все они именно о нем:
🎞 Первое - про домашних роботов, которые работают за нас, пока мы тоже работаем . Источник
🎞 Второе - про неадекватного робота, чтобы напомнить, что они машины, а не милые розовые пони . Источник
🎞 Третье - про ну очень крутой "дайтедва" летающий скутер. Источник
🎞 Четвертое - видео-клип, сделанный полностью с помощью AI. Как пример того, что сейчас может сделать даже непрофессионал с помощью AI-инструментов, было бы желание. Источник
🎞 И, наконец, пятое - очень трогательный AI-мультфильм. Пример того, что может сделать профессионал при помощи AI-инструментов. В одиночку и за крохотный, по сравнению с традиционным продакшеном, бюджет. Источник
Рекомендую пройти по ссылкам и почитать источники - там много интересного контекста и бэкстэйджа.
Всем хороших праздников!
#ИИпятница
Будущее наступает🚀
Этот канал про будущее, которое уже наступает, и все они именно о нем:
Рекомендую пройти по ссылкам и почитать источники - там много интересного контекста и бэкстэйджа.
Всем хороших праздников!
#ИИпятница
Будущее наступает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1🙏1