Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки – Telegram
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
5.36K subscribers
922 photos
664 videos
8 files
683 links
⚡️ AI в GameDev и Media — через нейросети и личный R&D

🎯 Новости, эксперименты, prompts, tutorials и хаки, которые реально работают

#acidcrunch

Чат: https://news.1rj.ru/str/+A--pIccfkaQyZWIy
Download Telegram
Media is too big
VIEW IN TELEGRAM
Классная демка от создателя llama.cpp – два голосовых агента переходят на внутренний язык, для повышения скорости обмена данными, примерно как работали старые модемы

Код тут

Технические детали:
ggwave передаёт небольшие объемы данных через звук, используя метод модуляции с частотным сдвигом (FSK). Данные разбиваются на 4-битные куски, каждый из которых кодируется одной из 96 заранее определённых частот в диапазоне 4.5 кГц. Дополнительно применяется коррекция ошибок (Reed-Solomon) для повышения надёжности передачи. На стороне приёма аудиосигнал анализируется с помощью Фурье-преобразования, частоты сопоставляются с битовыми значениями, после чего данные декодируются и восстанавливаются с учётом ECC.
Deep Research стал доступен всем платным пользователям (10 запросов в месяц если у вас Plus), поэтому ловите практические советы как лучше его использовать:

— Неважно какую модель вы выбрали в ChatGPT, у Deep Research своя модель во время поиска, он проигнорируют выбор модели (UI-костыли, привет)
— Указывайте на каком языке писать отчет и на каком языке искать материалы
— Попросите его «не дублировать одну и ту же мысль много раз в тексте, если она уже описана», по умолчанию он так делает
— Deep Research не умеет смотреть на картинки — не ожидайте от него исследований где что-то нужно визуально исследовать
— Просите научные источники если хотите максимально научный отчет на фактах, можете также указать год с которого искать релевантные данные
— Поставьте приложение 11 labs — каждый такой отчет, это примерно 30-40 минут прослушивания, идеально для поездок (встроенная в ChatGPT фича глючит с длинным текстом)
— Deep Research основан на рассуждающей модели, это значит что вам все еще нужно очень детально описать, что вы хотите видеть, что не хотите, что считается банальным — иначе получите поверхностный отчет
— Deep Research имеет доступ к написанию кода, то есть он может генерировать графики, таблицы и тп тд, и включать их в финальный отчет
— Можете подсказать ключевые слова на которых стоит сделать акцент, модель же ищет в интернете и там иногда много ненужного
— Deep Research поддерживает файлы (и ссылки), можете сказать ему что в них смотреть, он может их сделать как частью контекста отчета, так и построить поиск на основе файлов (но из-за UI костылей OpenAI, сначала нужно выбрать 4o или любую модель, что поддерживает файлы на входе)
— Это все еще нейрока — ответы могут содержать ошибки и требует верификации человеком, например в тестах видел как модель делала отчет на основе картинок ПО НАЗВАНИЯМ картинок, bruh
— Это все еще лучший автономный ресечер что у нас есть, никто не может конкурировать — и Perplexity, и Google
— Deep Research не умеет смотреть за пейволл, такие статьи нужно прикладывать самим к чату

И напоследок, когда использовать Deep Research:
Когда вы начинаете исследовать какую-то тему — это быстрый и легкий способ погрузиться во что-то, дальше вы можете строить свое исследование на базе знаний из прошлых отчетов, углубляясь в тему с каждым запросом все глубже — от бизнеса до науки, пока не нашел сферу где нельзя было бы применить такой инструмент
Alibaba выпустила модель для генерации видео Wan 2.1 с открытым исходным кодом

Китайская компания запустила сайт видеогенератора Wan и выложила код модели Wan 2.1. В соцсетях пишут, что она «лучше» Veo 2 от Google.

Модель может создавать видео по текстовому описанию или из изображений, редактировать ролики и генерировать для них аудио.

Модель Wan 2.1 можно установить локально, скачав с GitHub или HuggingFace. В семействе Wan есть облегчённая T2V-1.3B, которая требует 8 ГБ VRAM и «совместима почти со всеми потребительскими графическими процессорами». Она создаёт пятисекундные видео в разрешении 480р.

Компания не уточнила, добавили ли Wan 2.1 в чат-бот Qwen Chat. На момент написания заметки функция создания роликов на сайте не работает из-за длинной очереди.
2
Официальный анонс OpenAI GPT 4.5 будет сегодня – ссылка на стрим будет позже 🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
в 23:00 https://www.youtube.com/watch?v=cfRYp0nItZ8
Если коротко:
👌GPT 4.5 советуют для креативных и повседневных задач
👌Модель может быть хуже o1/o3-mini, в каких-то задачах, так как «думающие модели» просто мощнее, хоть и меньше
👌Доступна в API с сегодня (будет дорогой) и в Pro аккаунте
👌Для Plus появится на следующей неделе
Вышла новая модель от Anthropic Claude 3.7, которая показывает отличные метрики на кодинг и математических тестах 🤯

А я сегодня как раз задумался, с такими темпами через пару лет два пути как будто

1/ Либо айтишники станут не нужны в привычном виде и станет больше продактов с курсором в руках

2/ Либо айтишники станут еще более востребованны, так как станнут эффективнее и ROI от одного программиста станет таким, что даже рестораны начнут нанимать 🦄

Еще есть вариант, что работа в it будет выглядеть как уборка г*внокода, написанного ИИ 😂

К чему реально это все приведет?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🚀 Нашёл простой способ прокачать ответы GPT-4.5 и других нейронок!

Оказывается, можно заставить нейросеть «подумать» поглубже перед ответом, добавив всего один маленький промт:
First, think deeply for five minutes (at a minimum — if after five minutes, you still don't have the optimal response, keep thinking until you do) about the best way to do this, inside <thinking> tags, and then respond with your answer.


Как использовать: просто вставьте этот текст перед или после своего запроса, и модель будет отвечать осознаннее и точнее.

⚡️ Важно: не применяйте к «размышляющим» моделям вроде GPT-4o или DeepSeek R1 — они и так уже слишком задумчивые.

Пост написал этим способом
Please open Telegram to view this post
VIEW IN TELEGRAM
Оказывается, GPT-4.5 уже поддерживает голосовой режим! 🔥 Как раз с его помощью попросил нейросеть сравнить эту модель с версией GPT-4o («Omni»).
🔥 Ребят, хватит мучить гугл и яндекс. У нас тут кое-что получше появилось — Genspark!

Это ИИ-платформа, которая на раз-два выдаёт тебе не просто ссылки, а готовые мини-странички с самой важной инфой. Без рекламы, без спама и без траты твоего времени.

Что прикольного?

🧠 Spark-страницы: сразу чёткий ответ, без воды.
⚡️ Всегда свежак: поиск обновляется в реальном времени.
😌 Zero реклама: чистая, честная инфа без лишнего шума.

Ещё кайфовые плюшки:

🎤 Ищи голосом, текстом, фоткой — как хочешь.
🤖 ИИ-ко-пилот: можно уточнять и болтать, как с живым человеком.
🍕 Персонализация: платформа быстро понимает, что именно тебе нужно.

И главное:


🕐 Не тратишь время на перебор ссылок.
🔐 Безопасно и приватно.
👍 Простой интерфейс — открыл и сразу понял, что делать.

Короче, если ценишь своё время и хочешь поиск нового поколения — зацени Genspark. Не пожалеешь.
Media is too big
VIEW IN TELEGRAM
⚡️⚡️​Runway - Restyled First Frame

​Runway представила функцию использования изменённого первого кадра в своём инструменте Video to Video, доступном в модели Gen-3 Alpha. Эта функция позволяет пользователям применять стилизацию к первому кадру видео для достижения более точного контроля над конечным результатом.
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Сlaude 3.7 вышла БЕСПЛАТНОЙ для всех

Человечная отлично кодит хорошо отслеживает что ты русский так что лучше не с Яндекс браузера.

Тестируем — здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM