Forwarded from Банки, деньги, два офшора
Обновленный GigaChat PRO от Сбера обогнал по качеству ответов GPT-3.5-turbo от OpenAI. Отечественная модель обошла американскую сразу на русском и английском языках. Тест включал в себя вопросы в 57 областях знаний, среди которых математика, история, медицина, физика, знания о мире и способности решать проблемы. В среднем точность ответов GigaChat Pro была выше на 6%, посчитали исследователи.
Сбер запустил GigaChat в режиме тестирования в апреле прошлого года, а в начале сентября сервис стал доступен всем желающим. Сегодня им пользуются более 1,5 млн человек. «С его помощью бизнес может создавать собственные решения и оптимизировать внутренние процессы», — заявил старший вице-президент и руководитель блока «Технологий» Сбера Андрей Белевцев. @bankrollo
Сбер запустил GigaChat в режиме тестирования в апреле прошлого года, а в начале сентября сервис стал доступен всем желающим. Сегодня им пользуются более 1,5 млн человек. «С его помощью бизнес может создавать собственные решения и оптимизировать внутренние процессы», — заявил старший вице-президент и руководитель блока «Технологий» Сбера Андрей Белевцев. @bankrollo
😁49🫡19🔥6👍5🤔2🤩2🤯1🌭1👀1🙈1
Hugging Face и Google Cloud будут сотрудничать
Это означает, что теперь во всех сервисах Hugging Face разработчикам будут доступны возможности Google Cloud, GPU в том числе. В общем, любимая платформа станет еще круче.
А для Google это еще один большой шаг к статусу лидера индустрии. Такой же, как, например, покупка Kaggle. К слову, Hugging Face оценивают сейчас в $4.5 млрд.
Это означает, что теперь во всех сервисах Hugging Face разработчикам будут доступны возможности Google Cloud, GPU в том числе. В общем, любимая платформа станет еще круче.
А для Google это еще один большой шаг к статусу лидера индустрии. Такой же, как, например, покупка Kaggle. К слову, Hugging Face оценивают сейчас в $4.5 млрд.
👍48🔥12❤8
Как сделать так, чтобы нейросеть не переобучалась
Переобучение – это одно из главных проклятий большинства ML-алгоритмов, в том числе нейросетей. Вещь неприятная, конечно, но в большинстве случаев фиксится достаточно просто. Надо только знать специальные фокусы...
P.S.C вас – реакции, с нас – вторая часть)
Переобучение – это одно из главных проклятий большинства ML-алгоритмов, в том числе нейросетей. Вещь неприятная, конечно, но в большинстве случаев фиксится достаточно просто. Надо только знать специальные фокусы...
P.S.
👍210🔥55❤21🤯3
Как набить руку для первой работы в ML?
Машинное обучение – это про решение проблем и задач. Вы можете прочитать книгу или посмотреть видео, но то, что действительно важно – это практика. И тут нам повезло. У нас есть Kaggle, неповторимая платформа, идеальная для того, чтобы применить знания на практике. Кроме этого, прогресс на Kaggle – большой показатель для работодателя.
Как начать работать с Kaggle?
Если вы уже имеете представление о том, что такое Kaggle и как с ним работать, но не ныряли глубоко, то лучше начать со старых соревнований. Там уже есть решения других участников, обсуждения и готовые пайплайны. Можно смотреть -> делать похожим образом -> сравнивать.
А если совсем новичок?
Тогда советуем книгу «Developing Kaggle Notebooks» от Габриеля Преда и прилагающийся к ней репозиторий кода. В ней объяснено каждое действие, каждая строка кода. Точно не запутаетесь. И кстати, в ней есть даже главы про генеративки. А еще, обязательно ознакомьтесь с руководствами от самого Kaggle – там огромное количество бесплатных полезных курсов.
Желаем успехов, и не забудьте поделиться своими достижениями на Kaggle в комментариях!
Машинное обучение – это про решение проблем и задач. Вы можете прочитать книгу или посмотреть видео, но то, что действительно важно – это практика. И тут нам повезло. У нас есть Kaggle, неповторимая платформа, идеальная для того, чтобы применить знания на практике. Кроме этого, прогресс на Kaggle – большой показатель для работодателя.
Как начать работать с Kaggle?
Если вы уже имеете представление о том, что такое Kaggle и как с ним работать, но не ныряли глубоко, то лучше начать со старых соревнований. Там уже есть решения других участников, обсуждения и готовые пайплайны. Можно смотреть -> делать похожим образом -> сравнивать.
А если совсем новичок?
Тогда советуем книгу «Developing Kaggle Notebooks» от Габриеля Преда и прилагающийся к ней репозиторий кода. В ней объяснено каждое действие, каждая строка кода. Точно не запутаетесь. И кстати, в ней есть даже главы про генеративки. А еще, обязательно ознакомьтесь с руководствами от самого Kaggle – там огромное количество бесплатных полезных курсов.
Желаем успехов, и не забудьте поделиться своими достижениями на Kaggle в комментариях!
👍78🔥14❤6🎉4🤯2😍2🥰1
Немного продлеваем выходные. Традиционная воскресная задача в понедельник утром! Еще не поздно потренировать свои нейроны перед рабочей неделей 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27🤯12🔥10☃4👍3🥰1
На днях 2 года исполнилось InstructGPT – матери всех современных LLM. Статья про эту модель была опубликована на NeurIPS в 2022 году и стала главным предзнаменованием перехода LLM из статуса академической диковинки в реальный продукт. Неудивительно, что это была последняя статья от OpenAI, описывающая детали обучения.
3-этапный алгоритм, обрисованный в статье, до сих пор используется (с вариациями) как канон в большинстве LLM. Pre-training -> supervised finetuning -> RLHF. Вон он, рецепт счастья. Кстати, RLHF изобрели еще раньше (тоже в OpenAI). Аж в 2017 году, почти одновременно с трансформерами.
А еще эта статья – эталон презентации своего исследования. Ничего лишнего, кристально описанные 3 этапа обучения, подсветка важных деталей. Мёд 🍯
Ну вы поняли – это маст-рид, советуем!
3-этапный алгоритм, обрисованный в статье, до сих пор используется (с вариациями) как канон в большинстве LLM. Pre-training -> supervised finetuning -> RLHF. Вон он, рецепт счастья. Кстати, RLHF изобрели еще раньше (тоже в OpenAI). Аж в 2017 году, почти одновременно с трансформерами.
А еще эта статья – эталон презентации своего исследования. Ничего лишнего, кристально описанные 3 этапа обучения, подсветка важных деталей. Мёд 🍯
Ну вы поняли – это маст-рид, советуем!
🔥39🎉6❤5👍3🤯2
А почему 0.05?
Такой вопрос задавал себе каждый уважающий себя аналитик или человек, который имел дело с проверкой гипотез с помощью p-value. p-value – это такая мера, с помощью которой мы оцениваем, является ли наблюдаемый исход случайным. А 0.05 – это выбранный в качестве лакмусовой бумажки порог для этого значения.
Но... почему 0.05? Что за хардкодинг в статистике? Перечисляем 4 главные причины. Вот они слева направо:
Такой вопрос задавал себе каждый уважающий себя аналитик или человек, который имел дело с проверкой гипотез с помощью p-value. p-value – это такая мера, с помощью которой мы оцениваем, является ли наблюдаемый исход случайным. А 0.05 – это выбранный в качестве лакмусовой бумажки порог для этого значения.
Но... почему 0.05? Что за хардкодинг в статистике? Перечисляем 4 главные причины. Вот они слева направо:
👍60😁35🔥6❤5🤩2🤨2👏1
Meta выкатили свежую модель для генерации кода Code Llama-70B
Модель набрала 53 процента точности в тесте HumanEval, что лучше, чем у GPT-3.5 (48,1 процента) и ближе к отметке 67 процентов для GPT-4. Тем самым Code Llama-70B теперь является SOTA для программирования среди опенсурс-моделей. Модель по-прежнему бесплатна как для личного, так и для коммерческого использования.
Блогпост | Статья | Код | Download
Модель набрала 53 процента точности в тесте HumanEval, что лучше, чем у GPT-3.5 (48,1 процента) и ближе к отметке 67 процентов для GPT-4. Тем самым Code Llama-70B теперь является SOTA для программирования среди опенсурс-моделей. Модель по-прежнему бесплатна как для личного, так и для коммерческого использования.
Блогпост | Статья | Код | Download
❤26👍11🔥6🤯1
После появления эмбеддингов от OpenAI все только о них о говорят. Да, они довольно дешевые, качественные, не требуют GPU, и к тому же можно создавать эмбеддинги любой длины. Но.. одномерные! Идея сведения большого количества токенов к одному вектору неизбежно ведет к тому, что детали будут потеряны. Для некоторых задач это нестрашно, но, например, для RAG это поворотная точка.
Мы сегодня хотим напомнить о другой новой модели для эмбеддингов – ColBERT. Он использует небольшие эмбеддинги для каждого отдельного токена, сохраняя семантическую ценность. Это главная причина, почему ColBERT лучше для многих доменов.
Возвращаясь к RAG: именно ColBERT должен быть бэйзлайном для подобных задач поиска. Взгляните на этот проект. К тому же, ColBERT активно развивается: буквально на днях появился инструмент для пробы мини-версии прямо в браузере (идеально, если хотите разобраться), и число проектов с этой моделью растет.
Мы сегодня хотим напомнить о другой новой модели для эмбеддингов – ColBERT. Он использует небольшие эмбеддинги для каждого отдельного токена, сохраняя семантическую ценность. Это главная причина, почему ColBERT лучше для многих доменов.
Возвращаясь к RAG: именно ColBERT должен быть бэйзлайном для подобных задач поиска. Взгляните на этот проект. К тому же, ColBERT активно развивается: буквально на днях появился инструмент для пробы мини-версии прямо в браузере (идеально, если хотите разобраться), и число проектов с этой моделью растет.
👍18🤯7❤6🔥2
The New York Times ищет ML-инженера в команду новостей
Обычно мы не публикуем вакансии, но, как вы понимаете, тут особый случай. Генерация (!) новостей для крупнейшего издательства, все-таки. Ну ладно, пока не генерация, а только «эксперименты с генерацией». Журналисты по-прежнему будут редактировать и проверять все сами.
Напоминаем, что в недалеком прошлом The NY сгорели на Microsoft за то, что ChatGPT воспроизводит их статьи, и даже подали в суд. Видимо, этим инструментом их новые инженеры точно пользоваться не будут.
Обычно мы не публикуем вакансии, но, как вы понимаете, тут особый случай. Генерация (!) новостей для крупнейшего издательства, все-таки. Ну ладно, пока не генерация, а только «эксперименты с генерацией». Журналисты по-прежнему будут редактировать и проверять все сами.
Напоминаем, что в недалеком прошлом The NY сгорели на Microsoft за то, что ChatGPT воспроизводит их статьи, и даже подали в суд. Видимо, этим инструментом их новые инженеры точно пользоваться не будут.
😁43👍9🔥5🤯1
Мы нашли песочницу для построения MLOps системы
Это сайт, на котором можно поиграться и собрать полноценный MLOps для своей системы. Там уже есть шаблон, на базе которого предполгается собрать стек. Тут же можно узнать подробнее об инструментах, о том, когда их использовать и о подводных камнях, на которые стоит обратить внимание.
Это сайт, на котором можно поиграться и собрать полноценный MLOps для своей системы. Там уже есть шаблон, на базе которого предполгается собрать стек. Тут же можно узнать подробнее об инструментах, о том, когда их использовать и о подводных камнях, на которые стоит обратить внимание.
🔥41👍19❤4🤯3
Сегодня я узнал, что грандмастер Kaggle не прошел даже на этап скрининг-интервью на младшую AI-позицию в Google. Я уверен, они выберут кандидата, который умеет сортировать связный список. Именно поэтому я считаю, что процесс найма в техе прогнил.
©️ Ведущий ML-разработчик Nvidia
Бигтех’s moment
👍117😨45🔥14😁7💯2❤1