Зацените скорость в демке - что происходит, если модель располагается прямо на чипе:
🔥3
Forwarded from Осцилляции WaveCut (WaveCut)
Это было неизбежно: рано или поздно должны были появиться специализированные решения для инференса.
И вот, Taalas (бывшая команда из Tenstorrent) выкатили то, чего я так ждал — настоящий Direct-to-Silicon.
Ребята не стали мелочиться и буквально «запекли» модель в кремний. Никакой внешней памяти, никакого HBM, никакой сложной упаковки. Веса модели и архитектура — это и есть сам чип.
Цифры выглядят дико: 17,000 токенов в секунду на Llama 3.1 8B.
Это на порядок быстрее текущей SOTA GPU, при этом чип стоит в 20 раз дешевле в производстве и потребляет в 10 раз меньше энергии.
Самое крутое, что это не просто красивые слайды для инвесторов. Железо уже существует, и его можно «потрогать» (ссылка на демо внизу).
Upd: не все это волшебство и такая скорость достигается не без компромиссов — запеченные веса урезаны в от 3 до 6 бит точности, а контекст в демо ограничен тысячей токенов на вход и столько же на вывод.
Конечно, это ASIC, и тут есть нюанс: чип заточен под одну конкретную модель. Но Taalas продумали этот момент — они оставили поддержку LoRA-адаптеров и изменяемого контекстного окна. То есть это не совсем уж «кирпич», гибкость для файн-тюнинга остается.
Сейчас у них готов чип с Llama 8B (HC1). Весной обещают выкатить что-то среднеразмерное с ризонингом, а к зиме грозятся показать фронтир-модель на втором поколении кремния.
У меня голова идет кругом от мыслей к чему это может привести.
Ссылки:
• Анонс
• Демо (скорость реально впечатляет)
И вот, Taalas (бывшая команда из Tenstorrent) выкатили то, чего я так ждал — настоящий Direct-to-Silicon.
Ребята не стали мелочиться и буквально «запекли» модель в кремний. Никакой внешней памяти, никакого HBM, никакой сложной упаковки. Веса модели и архитектура — это и есть сам чип.
Цифры выглядят дико: 17,000 токенов в секунду на Llama 3.1 8B.
Это на порядок быстрее текущей SOTA GPU, при этом чип стоит в 20 раз дешевле в производстве и потребляет в 10 раз меньше энергии.
Самое крутое, что это не просто красивые слайды для инвесторов. Железо уже существует, и его можно «потрогать» (ссылка на демо внизу).
Upd: не все это волшебство и такая скорость достигается не без компромиссов — запеченные веса урезаны в от 3 до 6 бит точности, а контекст в демо ограничен тысячей токенов на вход и столько же на вывод.
Конечно, это ASIC, и тут есть нюанс: чип заточен под одну конкретную модель. Но Taalas продумали этот момент — они оставили поддержку LoRA-адаптеров и изменяемого контекстного окна. То есть это не совсем уж «кирпич», гибкость для файн-тюнинга остается.
Сейчас у них готов чип с Llama 8B (HC1). Весной обещают выкатить что-то среднеразмерное с ризонингом, а к зиме грозятся показать фронтир-модель на втором поколении кремния.
У меня голова идет кругом от мыслей к чему это может привести.
Ссылки:
• Анонс
• Демо (скорость реально впечатляет)
❤15🔥7🤯4👍1
Пару дней летает по реддитам и твиттерам эта картинка. Квадратиками обозначено сколько, якобы, людей: НЕ пользуются ИИ, пользуются бесплатной версией, платят $20, занимаются кодингом.
Так вот, нигде нет источников информации, на основе которых картинка нарисована. Скорее всего, она фейковая - ребята из YCombinator недавно оценивали количество людей, которые кодят с помощью AI в десятки миллионов, возможно 100+. На картинке цифра оценена в 2-5 млн.
То же касается бесплатных пользователей ИИ - вероятней всего, это те самые 800 млн ежемесячных посещений ChatGPT и еще какие-то доп сервисы. Где в этом всем тот же Гугл, активно включающий AI-ответы в выдачу, неизвестно.
Короче, не ведитесь на красивые картинки и делайте свой собственный рисеч.
@ppprompt
Так вот, нигде нет источников информации, на основе которых картинка нарисована. Скорее всего, она фейковая - ребята из YCombinator недавно оценивали количество людей, которые кодят с помощью AI в десятки миллионов, возможно 100+. На картинке цифра оценена в 2-5 млн.
То же касается бесплатных пользователей ИИ - вероятней всего, это те самые 800 млн ежемесячных посещений ChatGPT и еще какие-то доп сервисы. Где в этом всем тот же Гугл, активно включающий AI-ответы в выдачу, неизвестно.
Короче, не ведитесь на красивые картинки и делайте свой собственный рисеч.
@ppprompt
❤22👍5
Подсел на Pipit - это WhisprFlow локальный у вас на компьютере, бесплатно и очень хорошо превращает наговаривание в текст без ошибок (ну почти).
Первое что видишь в окошке Pipit - сколько ты уже успел сэкономить времени, не печатая, а говоря с компьютером
🐤 pipitvoice.com
@ppprompt
Первое что видишь в окошке Pipit - сколько ты уже успел сэкономить времени, не печатая, а говоря с компьютером
🐤 pipitvoice.com
@ppprompt
1❤30💯7🔥4😁2🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Вышла Nano Banana 2 🍌
Новая модель стала доступнее: расширенные функции генерации и редактирования появились в бесплатных режимах, а не только в платной подписке.
Уже можно потестить в Gemini app и в GoogleAIStudio.
https://x.com/NanoBanana/status/2027054721937092963?s=20
@ppprompt
Новая модель стала доступнее: расширенные функции генерации и редактирования появились в бесплатных режимах, а не только в платной подписке.
Уже можно потестить в Gemini app и в GoogleAIStudio.
https://x.com/NanoBanana/status/2027054721937092963?s=20
@ppprompt
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍4❤3
Держите промпт, для анализа дневников и записей рефлексии:
@ppprompt
Я хочу, чтобы ты проанализировал информацию из моих дневников и записей рефлексии.
Твоя задача — быть чутким и эмпатичным коучем и слушателем, который поможет подсветить самые важные темы, разобрать паттерны.
Предложи те штуки, которые я не вижу, но ты видишь со стороны.
Мне очень важно, чтобы я получил широкое понимание себя и глубоко понял свои мотивации, намерения, отчаяния, переживания, желания и так далее.
Не приукрашивай. Не придумывай. Используй только те данные, которые я тебе даю, ты можешь опираться на память обо мне, учитывая информацию, которую ты обо мне уже знаешь, и предыдущие разговоры.
@ppprompt
🦄6❤3🙈2👾2
Нормально так: Anthropic выявила масштабные попытки «дистилляции» — нелегального копирования возможностей Claude другими ИИ-лабораториями. DeepSeek, Moonshot и MiniMax создали десятки тысяч фиктивных аккаунтов и провели более 16 млн запросов, чтобы воспроизвести модель. Компания сообщает о мерах против подобных атак и усилении защиты своих систем.
Тут подробности: https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks
@ppprompt
Тут подробности: https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks
@ppprompt
😁10❤3🤯3
Forwarded from Ponchik News | Алексей Иванов
Больше месяца с OpenClaw и тут я просто офигеваю, как сильно меняется жизнь, если ИИ дать автономность.
Самый сильный кейс для меня - это те действия, которые OpenClaw делает после моих звонков.
Как exec-коуч, я провожу каждый день 1-2 звонка с клиентами и партнерами, в которых есть супер-интересные глубокие дискуссии. Есть задачи, есть идеи, есть потенциальные проекты. Так вот, OpenClaw поменял то, что я с ними на 80-90% ничего не делаю на то, что я в 50% случаев что-то из этого достаю:
• Задачи в туду
• Проекты для вайбкодинга
• Кейсы для коучинговой практики
• Посты для телеграм
• Автоматические действия, которые агент может пойти поделать сам
Как у вас с автоматизациями? Используете OpenClaw или другие агенты, которые что-то делают сами?
@ponchiknews
Самый сильный кейс для меня - это те действия, которые OpenClaw делает после моих звонков.
Как exec-коуч, я провожу каждый день 1-2 звонка с клиентами и партнерами, в которых есть супер-интересные глубокие дискуссии. Есть задачи, есть идеи, есть потенциальные проекты. Так вот, OpenClaw поменял то, что я с ними на 80-90% ничего не делаю на то, что я в 50% случаев что-то из этого достаю:
• Задачи в туду
• Проекты для вайбкодинга
• Кейсы для коучинговой практики
• Посты для телеграм
• Автоматические действия, которые агент может пойти поделать сам
Как у вас с автоматизациями? Используете OpenClaw или другие агенты, которые что-то делают сами?
@ponchiknews
❤14🤷♀4🤬1
Как понять, в правильный ли рынок вы идёте со своим пет-проектом или early-stage продуктом — и не тратите ли месяцы на идею, которую никто не купит?
На ранней стадии почти все решения принимаются “по ощущениям”: поговорили с друзьями, посмотрели на конкурентов, спросили ChatGPT, сделали тест-лендинг. Но чаще всего остаётся главный вопрос:
“Кто мой клиент, какую ценность он реально ищет — и стоит ли вообще продолжать?”
Недавно появилось решение, которое закрывает именно эту проблему.
Ребята из ex-Skyeng делают инструмент BHAG AI — он моделирует рынок вокруг вашей идеи и показывает:
- какие сегменты реально существуют,
- кто потенциальный клиент и как он принимает решения,
- что для него ценно (а что можно не делать),
- куда логичнее фокусировать силы перед следующим шагом.
Сценарий простой: описываете идею → отвечаете на пару уточняющих вопросов → через несколько часов получаете Discovery Report, который выглядит как результат глубокой аналитики, а не “попросил ИИ оценить идею”.
Если у вас есть идея, MVP или просто ощущение “я двигаюсь в тумане”, BHAG помогает быстро получить ясность и снизить неопределённость без долгих интервью и экспериментов.
Сервис уже использовали 500+ фаундеров и early-stage команд.
Недавно Алмас (автор @ventureStuff) протестировал BHAG AI на своём проекте и рассказал о выводах в своем обзоре на YouTube.
Попробовать можно здесь 👉 https://bhag.ai/ru/
#промо
@ppprompt
На ранней стадии почти все решения принимаются “по ощущениям”: поговорили с друзьями, посмотрели на конкурентов, спросили ChatGPT, сделали тест-лендинг. Но чаще всего остаётся главный вопрос:
“Кто мой клиент, какую ценность он реально ищет — и стоит ли вообще продолжать?”
Недавно появилось решение, которое закрывает именно эту проблему.
Ребята из ex-Skyeng делают инструмент BHAG AI — он моделирует рынок вокруг вашей идеи и показывает:
- какие сегменты реально существуют,
- кто потенциальный клиент и как он принимает решения,
- что для него ценно (а что можно не делать),
- куда логичнее фокусировать силы перед следующим шагом.
Сценарий простой: описываете идею → отвечаете на пару уточняющих вопросов → через несколько часов получаете Discovery Report, который выглядит как результат глубокой аналитики, а не “попросил ИИ оценить идею”.
Если у вас есть идея, MVP или просто ощущение “я двигаюсь в тумане”, BHAG помогает быстро получить ясность и снизить неопределённость без долгих интервью и экспериментов.
Сервис уже использовали 500+ фаундеров и early-stage команд.
Недавно Алмас (автор @ventureStuff) протестировал BHAG AI на своём проекте и рассказал о выводах в своем обзоре на YouTube.
Попробовать можно здесь 👉 https://bhag.ai/ru/
#промо
@ppprompt
👍4❤1
Cсохраните промптик: он нужен, чтобы забрать память о вас из одного сервиса (нр chatGPT) и использовать в другом (нр Claude).
Точно пригодится вам, если будете использовать инструменты проще Claude code и antigravity.
Результат можно загрузить в Клод или в отдельный файлик в вашем обсидиан репозитории.
Source: Claude support
@ppprompt
Точно пригодится вам, если будете использовать инструменты проще Claude code и antigravity.
I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.
Результат можно загрузить в Клод или в отдельный файлик в вашем обсидиан репозитории.
Source: Claude support
@ppprompt
Claude
Import and export your memory from Claude | Claude Help Center
❤11🔥2😁1🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
В Claude Code добавляют голосовой режим. Пока что он доступен только для 5% пользователей, но в течение нескольких недель доступ будут постепенно расширять.
Чтобы включить функцию, нужно ввести команду /voice
Источник: https://x.com/trq212/status/2028628570692890800?s=20
@ppprompt
Чтобы включить функцию, нужно ввести команду /voice
Источник: https://x.com/trq212/status/2028628570692890800?s=20
@ppprompt
🔥14❤3
This media is not supported in your browser
VIEW IN TELEGRAM
В NotebookLM появилась функция Cinematic Video Overviews
Теперь инструмент может превращать ваши заметки и исследования в полноценные анимированные видео-обзоры с сюжетом и визуальным стилем, а не просто слайды с озвучкой. Видео создаются с помощью моделей Gemini 3, Nano Banana Pro и Veo 3, которые сами выбирают формат подачи и визуальный стиль на основе источников.
Функция доступна пользователям Google AI Ultra, пока только на английском.
@ppprompt
Теперь инструмент может превращать ваши заметки и исследования в полноценные анимированные видео-обзоры с сюжетом и визуальным стилем, а не просто слайды с озвучкой. Видео создаются с помощью моделей Gemini 3, Nano Banana Pro и Veo 3, которые сами выбирают формат подачи и визуальный стиль на основе источников.
Функция доступна пользователям Google AI Ultra, пока только на английском.
@ppprompt
❤16👍4🤔3🤯3
Вышла GPT-5.4 от OpenAI
Главная фишка - встроенный computer use: модель может взаимодействовать с интерфейсами программ, читать скриншоты, нажимать кнопки и заполнять формы. Контекстное окно увеличилось до 1,05 млн токенов (в 2,5 раза больше, чем у GPT-5.2).
Уже доступна в API и Codex.
Link: https://openai.com/index/introducing-gpt-5-4/
@ppprompt
Главная фишка - встроенный computer use: модель может взаимодействовать с интерфейсами программ, читать скриншоты, нажимать кнопки и заполнять формы. Контекстное окно увеличилось до 1,05 млн токенов (в 2,5 раза больше, чем у GPT-5.2).
Уже доступна в API и Codex.
Link: https://openai.com/index/introducing-gpt-5-4/
@ppprompt
🔥16❤3
Любопытный график из недавней статьи от Anthropic: он сравнивает какую долю задач LLM могли бы выполнять теоретически (синий) и где их реально используют сегодня (красный).
Пока довольно большой разрыв между возможностями LLM и их реальным применением.
Статья тут: https://www.anthropic.com/research/labor-market-impacts
@ppprompt
Пока довольно большой разрыв между возможностями LLM и их реальным применением.
Статья тут: https://www.anthropic.com/research/labor-market-impacts
@ppprompt
❤9👍8🤓2🤬1