❤16👍6🆒3 2💅1
Forwarded from Lingtrain (Sergei Averkiev)
🔺 Обновление Lingtrain
По просьбам учащихся добавил в lingtrain-aligner и Lingtrain Alignment Studio армянский язык. Спасибо Максиму Степанянцу из ВШЭ за помощь!
🔸 Отдельный язык нужен, чтобы текст корректно делился на предложения (при делении по привычным знакам препинания можно выбрать язык General).
🔸 В армянском пунктуация как раз своя, вместо точек используются двоеточия, а признаки вопросительного предложения могут стоять внутри, причем их может быть несколько в разных словах.
🔸 P.S. На каникулах добавил в библиотеку много нового — расчет эмбеддингов по API, хранение их в БД, новый модуль corrector. Никак руки не дойдут описать все это, но скоро сделаю.
По просьбам учащихся добавил в lingtrain-aligner и Lingtrain Alignment Studio армянский язык. Спасибо Максиму Степанянцу из ВШЭ за помощь!
🔸 Отдельный язык нужен, чтобы текст корректно делился на предложения (при делении по привычным знакам препинания можно выбрать язык General).
🔸 В армянском пунктуация как раз своя, вместо точек используются двоеточия, а признаки вопросительного предложения могут стоять внутри, причем их может быть несколько в разных словах.
🔸 P.S. На каникулах добавил в библиотеку много нового — расчет эмбеддингов по API, хранение их в БД, новый модуль corrector. Никак руки не дойдут описать все это, но скоро сделаю.
🔥28❤9❤🔥2👍2 1
🔺 Мультиязычные MoE эмбеддинги
Nomic выложили модель Embed Text V2 в открытый доступ, можно запускать через sentence_transformers, обещают добавить в ollama.
🔸 Эмбеддинги используются, чтобы перенести тексты в единое векторное пространство, благодаря чему можно количественно посчитать насколько два текста близки по смыслу. В данном случае это можно применить для текстов на разных языках.
🔸 Поддерживается 100+ языков (в табличке, которую прилагают авторы языков 96, но для родственных им языков также будет работать). Обучали на 1.6B пар предложений.
🔸 Архитектура MoE. По-моему, для эмбеддингов такой еще не было. Это значит, что при использовании будет активироваться только часть весов модели, всего 300M параметров, это немного.
🔸 Данные, веса и код выкладывают в открытый доступ, что мы, конечно, приветствуем.
🔸 Эмбеддинги для экономии можно обрезать до 256, так как обучали с подходом Matryoshka.
🔸 Языков России/СНГ не так много, по качеству надо смотреть.
👉 Пост | GitHub | HF
Nomic выложили модель Embed Text V2 в открытый доступ, можно запускать через sentence_transformers, обещают добавить в ollama.
🔸 Эмбеддинги используются, чтобы перенести тексты в единое векторное пространство, благодаря чему можно количественно посчитать насколько два текста близки по смыслу. В данном случае это можно применить для текстов на разных языках.
🔸 Поддерживается 100+ языков (в табличке, которую прилагают авторы языков 96, но для родственных им языков также будет работать). Обучали на 1.6B пар предложений.
🔸 Архитектура MoE. По-моему, для эмбеддингов такой еще не было. Это значит, что при использовании будет активироваться только часть весов модели, всего 300M параметров, это немного.
🔸 Данные, веса и код выкладывают в открытый доступ, что мы, конечно, приветствуем.
🔸 Эмбеддинги для экономии можно обрезать до 256, так как обучали с подходом Matryoshka.
🔸 Языков России/СНГ не так много, по качеству надо смотреть.
from sentence_transformers import SentenceTransformer
model = SentenceTransformer("nomic-ai/nomic-embed-text-v2-moe", trust_remote_code=True)
sentences = ["Hello!", "Привет!"]
embeddings = model.encode(sentences, prompt_name="passage")
similarity = model.similarity(embeddings[0], embeddings[1])
👉 Пост | GitHub | HF
🔥23👍7❤4🐳2
Все думал, что у DeepSeek'а шрифт уж больно знакомый. И точно, это же Каспер после ребрендинга.
😁56🔥5🤯2🐳2😱1
В Perplexity добавили DeepResearch по аналогии с DR ChatGPT (там пока что только в подписке за $200).
Доступно и в бесплатной версии и в платной за $20. Попробовал обе, в Pro находит больше источников и отвечает подробнее. Отрабатывает около 3-5 минут на один запрос.
Думаю, что все реализовано на их же Sonar API, где можно указывать актуальность источников и задавать фильтры по доменам параметрами search_recency_filter и search_domain_filter, получая разные срезы данных и накладывая поверх этого reasoning (скорее всего они это просто добавят в API как дополнительный параметр).
Зачем?
Нужно все это, чтобы автоматизировать копание в интернете и составление плана, анализа, отчета, курсовой и т.д с сохранением ссылок на собранные источники для подтверждения информации.
Судя по логам обрабатывается от 30 до 100 ресурсов.
Например, можно попросить сделать обзор исследований на тему лечения бессонницы, провести анализ событий на финансовом рынке за последние 2 дня, сделать с пост про сходства и отличия немецкой грамматики и русской с примерами.
Попробовать можно тут.
Сбор
Решил в качестве пет-проекта сделать аналог Perplexity на их API, название уже придумал. Подключу функции с верхних Tier'ов типа картинок и фильтров по доменам (доступны при пополнении баланса на $250, $500) и разверну потестировать, а там посмотрим.
Задонатить можно здесь.
Upd. Тем, кто скинул, шлю лучи добра🤗
Доступно и в бесплатной версии и в платной за $20. Попробовал обе, в Pro находит больше источников и отвечает подробнее. Отрабатывает около 3-5 минут на один запрос.
Думаю, что все реализовано на их же Sonar API, где можно указывать актуальность источников и задавать фильтры по доменам параметрами search_recency_filter и search_domain_filter, получая разные срезы данных и накладывая поверх этого reasoning (скорее всего они это просто добавят в API как дополнительный параметр).
Зачем?
Нужно все это, чтобы автоматизировать копание в интернете и составление плана, анализа, отчета, курсовой и т.д с сохранением ссылок на собранные источники для подтверждения информации.
Судя по логам обрабатывается от 30 до 100 ресурсов.
Например, можно попросить сделать обзор исследований на тему лечения бессонницы, провести анализ событий на финансовом рынке за последние 2 дня, сделать с пост про сходства и отличия немецкой грамматики и русской с примерами.
Попробовать можно тут.
Сбор
Решил в качестве пет-проекта сделать аналог Perplexity на их API, название уже придумал. Подключу функции с верхних Tier'ов типа картинок и фильтров по доменам (доступны при пополнении баланса на $250, $500) и разверну потестировать, а там посмотрим.
Задонатить можно здесь.
Upd. Тем, кто скинул, шлю лучи добра
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22❤4🔥1🤝1
Накидал первую версию поиска
Плюс потестировал tier 2 в API Perplexity. Картинки иногда возвращает такие, которые уже не грузятся, а вот сопутствующие вопросы, которые возвращаются вместе с ответом, нравятся.
Ну и в целом оно работает, свежие новости и события находит, рассуждает, таблички составляет (пришлось заморочиться со стилями, пока не стало выглядеть более-менее прилично).
Плюс потестировал tier 2 в API Perplexity. Картинки иногда возвращает такие, которые уже не грузятся, а вот сопутствующие вопросы, которые возвращаются вместе с ответом, нравятся.
Ну и в целом оно работает, свежие новости и события находит, рассуждает, таблички составляет (пришлось заморочиться со стилями, пока не стало выглядеть более-менее прилично).
🔥23🆒6❤4⚡2
Ходят слухи, что сегодня зарелизят новый Claude
Он не Opus (старший из линейки) и не 4.0, но уже не Sonnet 3.6 new (Copy 2).
Учитывая, что с момента последнего релиза вышло много крутых моделей, ребята должны подготовить что-то мощное. Верим, ждём.
Он не Opus (старший из линейки) и не 4.0, но уже не Sonnet 3.6 new (Copy 2).
Учитывая, что с момента последнего релиза вышло много крутых моделей, ребята должны подготовить что-то мощное. Верим, ждём.
👍14❤4🔥4🏆1
🔺 Claude 3.7 Sonnet
🔸 Слухи не соврали, давайте пробовать. Пишут, что Клод особенно хорош в написании кода, в веб-разработке в частности.
🔸 Само собой, есть рассуждения, причем в API можно задать максимальный бюджет для "думанья" в токенах, контролируя цену/качество/скорость финального ответа.
🔸 Claude Code. Раннее превью кодового агента, которое обещают развивать в ближайшие недели. "При тестировании ранней версии агент выполнял задачи на 45+ минут ручной работы за один проход", — пишут в анонсе. (Надеюсь, быстрее чем за 45 минут)
🔸 А еще мы знаем, что он хорош в мультиязычности, это тоже посмотрим.
👉 https://www.anthropic.com/news/claude-3-7-sonnet
🔸 Слухи не соврали, давайте пробовать. Пишут, что Клод особенно хорош в написании кода, в веб-разработке в частности.
🔸 Само собой, есть рассуждения, причем в API можно задать максимальный бюджет для "думанья" в токенах, контролируя цену/качество/скорость финального ответа.
🔸 Claude Code. Раннее превью кодового агента, которое обещают развивать в ближайшие недели. "При тестировании ранней версии агент выполнял задачи на 45+ минут ручной работы за один проход", — пишут в анонсе. (Надеюсь, быстрее чем за 45 минут)
🔸 А еще мы знаем, что он хорош в мультиязычности, это тоже посмотрим.
👉 https://www.anthropic.com/news/claude-3-7-sonnet
❤13🔥6👍4⚡1😱1🐳1
Claude Code
Попробовал вышедший только что Claude Code (вчера добавили в waitlist, сегодня одобрили) — помощник для программирования.
Друзья, это прикольная вещь.
Как работает?
🔸 Это консольная утилита claude, под виндой нужен WSL. После установки логинимся под своим Anthropic Console аккаунтом.
🔸 Дальше просто переходите в консоли в свой проект и говорите, что нужно сделать. Утилита анализирует структуру проекта, выбирает релевантные файлы, читает их. На этом этапе съедается 30-40 центов. Затем начинает выполнять задачу по этапам.
🔸 Когда какой-то файл нужно обновить, claude выдает сгенерированный diff и запрашивает подтверждение. Можно принять, можно сказать в чем ошибка, можно эти уведомления отключить.
🔸 Кроме того, claude иногда запускает куски сгенерированного кода и грепает файлы (тоже после подтверждения), чтобы проверить, что все на месте и работает.
🔸 Постестировал на своем небольшом проекте ligntrain-aligner (библиотека на питоне) и на веб-приложении (python + vuejs).
Задачи — добавление типового функционала, когда надо поменять ~10-15 файлов по аналогии — сделать SQL табличку, методы get-set для нее, API функции, протащить это все на фронтенд, на фронтенде создать view, чтобы там отображалась информация, полученная с бекенда, настроить маршрутизацию на сайте и т.д.
Муторные задачки, отнимают примерно 30-40 минут времени. Кроме того, в lingtrain попросил добавить новый язык, и правила для разбиения текста на нем на предложения, если пунктуация там не по обычным знакам. Тут уже нужно знать про этот язык и также поменять несколько файлов.
В общем claude такие задачи порешал, тратя на каждую примерно 10 минут с учетом моего чтения, сэкономил мне пару часов времени за 3-4 доллара.
👉 Попробовать тут (на этапе логина станет понятно, открыта регистрация новых учеток или нет). Нужна учетка в Anthropic Console.
Попробовал вышедший только что Claude Code (вчера добавили в waitlist, сегодня одобрили) — помощник для программирования.
Друзья, это прикольная вещь.
Как работает?
🔸 Это консольная утилита claude, под виндой нужен WSL. После установки логинимся под своим Anthropic Console аккаунтом.
🔸 Дальше просто переходите в консоли в свой проект и говорите, что нужно сделать. Утилита анализирует структуру проекта, выбирает релевантные файлы, читает их. На этом этапе съедается 30-40 центов. Затем начинает выполнять задачу по этапам.
🔸 Когда какой-то файл нужно обновить, claude выдает сгенерированный diff и запрашивает подтверждение. Можно принять, можно сказать в чем ошибка, можно эти уведомления отключить.
🔸 Кроме того, claude иногда запускает куски сгенерированного кода и грепает файлы (тоже после подтверждения), чтобы проверить, что все на месте и работает.
🔸 Постестировал на своем небольшом проекте ligntrain-aligner (библиотека на питоне) и на веб-приложении (python + vuejs).
Задачи — добавление типового функционала, когда надо поменять ~10-15 файлов по аналогии — сделать SQL табличку, методы get-set для нее, API функции, протащить это все на фронтенд, на фронтенде создать view, чтобы там отображалась информация, полученная с бекенда, настроить маршрутизацию на сайте и т.д.
Муторные задачки, отнимают примерно 30-40 минут времени. Кроме того, в lingtrain попросил добавить новый язык, и правила для разбиения текста на нем на предложения, если пунктуация там не по обычным знакам. Тут уже нужно знать про этот язык и также поменять несколько файлов.
В общем claude такие задачи порешал, тратя на каждую примерно 10 минут с учетом моего чтения, сэкономил мне пару часов времени за 3-4 доллара.
👉 Попробовать тут (на этапе логина станет понятно, открыта регистрация новых учеток или нет). Нужна учетка в Anthropic Console.
👍18🔥11❤6🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
🔺Mercury Coder. Диффузионная LLM для кода
Стартап Inception из Пало-Альто решил поставить на диффузионные LLM и начал выкатывать свои модели. Звучит интересно, потому что каких-то внятных рабочих моделей на диффузии пока не было. Здесь же авторы предлагают доступ по API и установку on-prem, то есть некое готовое изолированное решение, чтобы ваш код не утёк.
Первой моделью стал Mercury Coder — кодовая модель, основным преимуществом которой является скорость генерации, в 5-10 раз быстрее ChatGPT или Claude, около 1000 токенов в секунду на H100.
Вспоминается анекдот про секретаршу, но не все так плохо, на бенчмарках результат между gpt-4o-mini и DeepSeek Coder, а в fill-in-the-middle (генерация в промежутках кода) ожидаемо лучше остальных.
Есть публичное демо. Не забудьте включить переключатель Diffusion Effect.
👉 https://chat.inceptionlabs.ai/
Стартап Inception из Пало-Альто решил поставить на диффузионные LLM и начал выкатывать свои модели. Звучит интересно, потому что каких-то внятных рабочих моделей на диффузии пока не было. Здесь же авторы предлагают доступ по API и установку on-prem, то есть некое готовое изолированное решение, чтобы ваш код не утёк.
Первой моделью стал Mercury Coder — кодовая модель, основным преимуществом которой является скорость генерации, в 5-10 раз быстрее ChatGPT или Claude, около 1000 токенов в секунду на H100.
Вспоминается анекдот про секретаршу, но не все так плохо, на бенчмарках результат между gpt-4o-mini и DeepSeek Coder, а в fill-in-the-middle (генерация в промежутках кода) ожидаемо лучше остальных.
Есть публичное демо. Не забудьте включить переключатель Diffusion Effect.
👉 https://chat.inceptionlabs.ai/
🔥23👍9❤3 3
🔺 Phi-4-multimodal-instruct
MS выложили мультимодальную (картинки-аудио-текст) модель в открытый доступ.
5.6B параметров, поддерживает русский язык в тексте, в картинках только английский, в аудио — 7 европейских языков + китайский.
Также выложили Phi-4-mini 3.8B. У обеих моделей контекст до 128k токенов.
Основной фишкой моделей такого размера является возможность их встраивания на устройства типа смартфонов, поэтому качественная end-2-end мультимодальность (а не обработка данных несколькими специализированными моделями) такого размера очень в тему.
👉 Пост | HF | Tech. Report | Чат
MS выложили мультимодальную (картинки-аудио-текст) модель в открытый доступ.
5.6B параметров, поддерживает русский язык в тексте, в картинках только английский, в аудио — 7 европейских языков + китайский.
Также выложили Phi-4-mini 3.8B. У обеих моделей контекст до 128k токенов.
Основной фишкой моделей такого размера является возможность их встраивания на устройства типа смартфонов, поэтому качественная end-2-end мультимодальность (а не обработка данных несколькими специализированными моделями) такого размера очень в тему.
👉 Пост | HF | Tech. Report | Чат
Microsoft Azure Blog
Empowering innovation: The next generation of the Phi family | Microsoft Azure Blog
We are excited to announce Phi-4-multimodal and Phi-4-mini, the newest models in Microsoft’s Phi family of small language models. Learn more.
🔥13❤6👍2✍1
⚡️ Внимание, ночные тарифы на электроэнергию DeepSeek.
С 19:30 до 3:30 мск скидка 75% на вызов по API💣
С 19:30 до 3:30 мск скидка 75% на вызов по API
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯25⚡9😁4🐳2