Media is too big
VIEW IN TELEGRAM
Классная демка от создателя llama.cpp – два голосовых агента переходят на внутренний язык, для повышения скорости обмена данными, примерно как работали старые модемы
Код тут
Технические детали:
Код тут
Технические детали:
ggwave передаёт небольшие объемы данных через звук, используя метод модуляции с частотным сдвигом (FSK). Данные разбиваются на 4-битные куски, каждый из которых кодируется одной из 96 заранее определённых частот в диапазоне 4.5 кГц. Дополнительно применяется коррекция ошибок (Reed-Solomon) для повышения надёжности передачи. На стороне приёма аудиосигнал анализируется с помощью Фурье-преобразования, частоты сопоставляются с битовыми значениями, после чего данные декодируются и восстанавливаются с учётом ECC.
Deep Research стал доступен всем платным пользователям (10 запросов в месяц если у вас Plus), поэтому ловите практические советы как лучше его использовать:
— Неважно какую модель вы выбрали в ChatGPT, у Deep Research своя модель во время поиска, он проигнорируют выбор модели (UI-костыли, привет)
— Указывайте на каком языке писать отчет и на каком языке искать материалы
— Попросите его «
— Deep Research не умеет смотреть на картинки — не ожидайте от него исследований где что-то нужно визуально исследовать
— Просите научные источники если хотите максимально научный отчет на фактах, можете также указать год с которого искать релевантные данные
— Поставьте приложение 11 labs — каждый такой отчет, это примерно 30-40 минут прослушивания, идеально для поездок (встроенная в ChatGPT фича глючит с длинным текстом)
— Deep Research основан на рассуждающей модели, это значит что вам все еще нужно очень детально описать, что вы хотите видеть, что не хотите, что считается банальным — иначе получите поверхностный отчет
— Deep Research имеет доступ к написанию кода, то есть он может генерировать графики, таблицы и тп тд, и включать их в финальный отчет
— Можете подсказать ключевые слова на которых стоит сделать акцент, модель же ищет в интернете и там иногда много ненужного
— Deep Research поддерживает файлы (и ссылки), можете сказать ему что в них смотреть, он может их сделать как частью контекста отчета, так и построить поиск на основе файлов (но из-за UI костылей OpenAI, сначала нужно выбрать 4o или любую модель, что поддерживает файлы на входе)
— Это все еще нейрока — ответы могут содержать ошибки и требует верификации человеком, например в тестах видел как модель делала отчет на основе картинок ПО НАЗВАНИЯМ картинок, bruh
— Это все еще лучший автономный ресечер что у нас есть, никто не может конкурировать — и Perplexity, и Google
— Deep Research не умеет смотреть за пейволл, такие статьи нужно прикладывать самим к чату
И напоследок, когда использовать Deep Research:
Когда вы начинаете исследовать какую-то тему — это быстрый и легкий способ погрузиться во что-то, дальше вы можете строить свое исследование на базе знаний из прошлых отчетов, углубляясь в тему с каждым запросом все глубже — от бизнеса до науки, пока не нашел сферу где нельзя было бы применить такой инструмент
— Неважно какую модель вы выбрали в ChatGPT, у Deep Research своя модель во время поиска, он проигнорируют выбор модели (UI-костыли, привет)
— Указывайте на каком языке писать отчет и на каком языке искать материалы
— Попросите его «
не дублировать одну и ту же мысль много раз в тексте, если она уже описана», по умолчанию он так делает — Deep Research не умеет смотреть на картинки — не ожидайте от него исследований где что-то нужно визуально исследовать
— Просите научные источники если хотите максимально научный отчет на фактах, можете также указать год с которого искать релевантные данные
— Поставьте приложение 11 labs — каждый такой отчет, это примерно 30-40 минут прослушивания, идеально для поездок (встроенная в ChatGPT фича глючит с длинным текстом)
— Deep Research основан на рассуждающей модели, это значит что вам все еще нужно очень детально описать, что вы хотите видеть, что не хотите, что считается банальным — иначе получите поверхностный отчет
— Deep Research имеет доступ к написанию кода, то есть он может генерировать графики, таблицы и тп тд, и включать их в финальный отчет
— Можете подсказать ключевые слова на которых стоит сделать акцент, модель же ищет в интернете и там иногда много ненужного
— Deep Research поддерживает файлы (и ссылки), можете сказать ему что в них смотреть, он может их сделать как частью контекста отчета, так и построить поиск на основе файлов (но из-за UI костылей OpenAI, сначала нужно выбрать 4o или любую модель, что поддерживает файлы на входе)
— Это все еще нейрока — ответы могут содержать ошибки и требует верификации человеком, например в тестах видел как модель делала отчет на основе картинок ПО НАЗВАНИЯМ картинок, bruh
— Это все еще лучший автономный ресечер что у нас есть, никто не может конкурировать — и Perplexity, и Google
— Deep Research не умеет смотреть за пейволл, такие статьи нужно прикладывать самим к чату
И напоследок, когда использовать Deep Research:
Когда вы начинаете исследовать какую-то тему — это быстрый и легкий способ погрузиться во что-то, дальше вы можете строить свое исследование на базе знаний из прошлых отчетов, углубляясь в тему с каждым запросом все глубже — от бизнеса до науки, пока не нашел сферу где нельзя было бы применить такой инструмент
ChatGPT
ChatGPT helps you get answers, find inspiration, and be more productive.
Alibaba выпустила модель для генерации видео Wan 2.1 с открытым исходным кодом
Китайская компания запустила сайт видеогенератора Wan и выложила код модели Wan 2.1. В соцсетях пишут, что она «лучше» Veo 2 от Google.
Модель может создавать видео по текстовому описанию или из изображений, редактировать ролики и генерировать для них аудио.
Модель Wan 2.1 можно установить локально, скачав с GitHub или HuggingFace. В семействе Wan есть облегчённая T2V-1.3B, которая требует 8 ГБ VRAM и «совместима почти со всеми потребительскими графическими процессорами». Она создаёт пятисекундные видео в разрешении 480р.
Компания не уточнила, добавили ли Wan 2.1 в чат-бот Qwen Chat. На момент написания заметки функция создания роликов на сайте не работает из-за длинной очереди.
Китайская компания запустила сайт видеогенератора Wan и выложила код модели Wan 2.1. В соцсетях пишут, что она «лучше» Veo 2 от Google.
Модель может создавать видео по текстовому описанию или из изображений, редактировать ролики и генерировать для них аудио.
Модель Wan 2.1 можно установить локально, скачав с GitHub или HuggingFace. В семействе Wan есть облегчённая T2V-1.3B, которая требует 8 ГБ VRAM и «совместима почти со всеми потребительскими графическими процессорами». Она создаёт пятисекундные видео в разрешении 480р.
Компания не уточнила, добавили ли Wan 2.1 в чат-бот Qwen Chat. На момент написания заметки функция создания роликов на сайте не работает из-за длинной очереди.
❤2
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Alibaba выпустила модель для генерации видео Wan 2.1 с открытым исходным кодом Китайская компания запустила сайт видеогенератора Wan и выложила код модели Wan 2.1. В соцсетях пишут, что она «лучше» Veo 2 от Google. Модель может создавать видео по текстовому…
Хотя иногда и можно прорваться)
Официальный анонс OpenAI GPT 4.5 будет сегодня – ссылка на стрим будет позже 🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
в 23:00 https://www.youtube.com/watch?v=cfRYp0nItZ8
Если коротко:
👌GPT 4.5 советуют для креативных и повседневных задач
👌Модель может быть хуже o1/o3-mini, в каких-то задачах, так как «думающие модели» просто мощнее, хоть и меньше
👌Доступна в API с сегодня (будет дорогой) и в Pro аккаунте
👌Для Plus появится на следующей неделе
Вышла новая модель от Anthropic Claude 3.7, которая показывает отличные метрики на кодинг и математических тестах 🤯
А я сегодня как раз задумался, с такими темпами через пару лет два пути как будто
1/ Либо айтишники станут не нужны в привычном виде и станет больше продактов с курсором в руках
2/ Либо айтишники станут еще более востребованны, так как станнут эффективнее и ROI от одного программиста станет таким, что даже рестораны начнут нанимать 🦄
Еще есть вариант, что работа в it будет выглядеть как уборка г*внокода, написанного ИИ😂
К чему реально это все приведет?
А я сегодня как раз задумался, с такими темпами через пару лет два пути как будто
1/ Либо айтишники станут не нужны в привычном виде и станет больше продактов с курсором в руках
2/ Либо айтишники станут еще более востребованны, так как станнут эффективнее и ROI от одного программиста станет таким, что даже рестораны начнут нанимать 🦄
Еще есть вариант, что работа в it будет выглядеть как уборка г*внокода, написанного ИИ
К чему реально это все приведет?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🚀 Нашёл простой способ прокачать ответы GPT-4.5 и других нейронок!
Оказывается, можно заставить нейросеть «подумать» поглубже перед ответом, добавив всего один маленький промт:
Как использовать: просто вставьте этот текст перед или после своего запроса, и модель будет отвечать осознаннее и точнее.
⚡️ Важно: не применяйте к «размышляющим» моделям вроде GPT-4o или DeepSeek R1 — они и так уже слишком задумчивые.
Пост написал этим способом
Оказывается, можно заставить нейросеть «подумать» поглубже перед ответом, добавив всего один маленький промт:
First, think deeply for five minutes (at a minimum — if after five minutes, you still don't have the optimal response, keep thinking until you do) about the best way to do this, inside <thinking> tags, and then respond with your answer.
Как использовать: просто вставьте этот текст перед или после своего запроса, и модель будет отвечать осознаннее и точнее.
Пост написал этим способом
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Ребят, хватит мучить гугл и яндекс. У нас тут кое-что получше появилось — Genspark!
Это ИИ-платформа, которая на раз-два выдаёт тебе не просто ссылки, а готовые мини-странички с самой важной инфой. Без рекламы, без спама и без траты твоего времени.
Что прикольного?
🧠 Spark-страницы: сразу чёткий ответ, без воды.
⚡️ Всегда свежак: поиск обновляется в реальном времени.
😌 Zero реклама: чистая, честная инфа без лишнего шума.
Ещё кайфовые плюшки:
🎤 Ищи голосом, текстом, фоткой — как хочешь.
🤖 ИИ-ко-пилот: можно уточнять и болтать, как с живым человеком.
🍕 Персонализация: платформа быстро понимает, что именно тебе нужно.
И главное:
🕐 Не тратишь время на перебор ссылок.
🔐 Безопасно и приватно.
👍 Простой интерфейс — открыл и сразу понял, что делать.
Короче, если ценишь своё время и хочешь поиск нового поколения — зацени Genspark. Не пожалеешь.
Это ИИ-платформа, которая на раз-два выдаёт тебе не просто ссылки, а готовые мини-странички с самой важной инфой. Без рекламы, без спама и без траты твоего времени.
Что прикольного?
🧠 Spark-страницы: сразу чёткий ответ, без воды.
⚡️ Всегда свежак: поиск обновляется в реальном времени.
😌 Zero реклама: чистая, честная инфа без лишнего шума.
Ещё кайфовые плюшки:
🎤 Ищи голосом, текстом, фоткой — как хочешь.
🤖 ИИ-ко-пилот: можно уточнять и болтать, как с живым человеком.
🍕 Персонализация: платформа быстро понимает, что именно тебе нужно.
И главное:
🕐 Не тратишь время на перебор ссылок.
🔐 Безопасно и приватно.
👍 Простой интерфейс — открыл и сразу понял, что делать.
Короче, если ценишь своё время и хочешь поиск нового поколения — зацени Genspark. Не пожалеешь.
Media is too big
VIEW IN TELEGRAM
Runway представила функцию использования изменённого первого кадра в своём инструменте Video to Video, доступном в модели Gen-3 Alpha. Эта функция позволяет пользователям применять стилизацию к первому кадру видео для достижения более точного контроля над конечным результатом.
Please open Telegram to view this post
VIEW IN TELEGRAM
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Есть проблемы с мимикой, но это легко исправляется через тот же Run way Act 1 загрузив тот же оригинальный видос + стилизованный
Кайфовый ролик о применении Ai в продакшене всем советую
YouTube
Create AMAZING Video Effects WITH AI Easily
Can AI recreate the high-end visuals of a professionally shot music video? 🎬✨
This video explores how AI tools like OpenArt, Runway ML, and Kling AI can be used to generate cinematic visuals, match-cut sequences, and even animate still images into motion…
This video explores how AI tools like OpenArt, Runway ML, and Kling AI can be used to generate cinematic visuals, match-cut sequences, and even animate still images into motion…
Человечная отлично кодит хорошо отслеживает что ты русский так что лучше не с Яндекс браузера.
Тестируем — здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Бывает и такое )
Так что только через иностранный номер и всем известные программы без Яндекс браузера
Так что только через иностранный номер и всем известные программы без Яндекс браузера