Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки – Telegram
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
5.36K subscribers
922 photos
664 videos
8 files
683 links
⚡️ AI в GameDev и Media — через нейросети и личный R&D

🎯 Новости, эксперименты, prompts, tutorials и хаки, которые реально работают

#acidcrunch

Чат: https://news.1rj.ru/str/+A--pIccfkaQyZWIy
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
200 летний человек от компании 1X

Компания 1X Представила нового домашнего робота Neo Gamma идеальный вариант для бежевой мамы🤡

Особенности:
👉NEO привносит в домашнюю жизнь ощущение порядка и равновесия, что позволяет сосредоточиться на важных вещах.
👉Трикотажный костюм NEO мягкий на ощупь и эластичный для динамичных движений.
👉Руки NEO созданы для выполнения важной работы по дому.
👉Движение, управляемое сухожилиями, обеспечивает безопасное взаимодействие благодаря мягким и бесшумным движениям.
Уже на claude.ai (даже для бесплатных пользвателей!)

офф пост: https://www.anthropic.com/news/claude-3-7-sonnet
Media is too big
VIEW IN TELEGRAM
Классная демка от создателя llama.cpp – два голосовых агента переходят на внутренний язык, для повышения скорости обмена данными, примерно как работали старые модемы

Код тут

Технические детали:
ggwave передаёт небольшие объемы данных через звук, используя метод модуляции с частотным сдвигом (FSK). Данные разбиваются на 4-битные куски, каждый из которых кодируется одной из 96 заранее определённых частот в диапазоне 4.5 кГц. Дополнительно применяется коррекция ошибок (Reed-Solomon) для повышения надёжности передачи. На стороне приёма аудиосигнал анализируется с помощью Фурье-преобразования, частоты сопоставляются с битовыми значениями, после чего данные декодируются и восстанавливаются с учётом ECC.
Deep Research стал доступен всем платным пользователям (10 запросов в месяц если у вас Plus), поэтому ловите практические советы как лучше его использовать:

— Неважно какую модель вы выбрали в ChatGPT, у Deep Research своя модель во время поиска, он проигнорируют выбор модели (UI-костыли, привет)
— Указывайте на каком языке писать отчет и на каком языке искать материалы
— Попросите его «не дублировать одну и ту же мысль много раз в тексте, если она уже описана», по умолчанию он так делает
— Deep Research не умеет смотреть на картинки — не ожидайте от него исследований где что-то нужно визуально исследовать
— Просите научные источники если хотите максимально научный отчет на фактах, можете также указать год с которого искать релевантные данные
— Поставьте приложение 11 labs — каждый такой отчет, это примерно 30-40 минут прослушивания, идеально для поездок (встроенная в ChatGPT фича глючит с длинным текстом)
— Deep Research основан на рассуждающей модели, это значит что вам все еще нужно очень детально описать, что вы хотите видеть, что не хотите, что считается банальным — иначе получите поверхностный отчет
— Deep Research имеет доступ к написанию кода, то есть он может генерировать графики, таблицы и тп тд, и включать их в финальный отчет
— Можете подсказать ключевые слова на которых стоит сделать акцент, модель же ищет в интернете и там иногда много ненужного
— Deep Research поддерживает файлы (и ссылки), можете сказать ему что в них смотреть, он может их сделать как частью контекста отчета, так и построить поиск на основе файлов (но из-за UI костылей OpenAI, сначала нужно выбрать 4o или любую модель, что поддерживает файлы на входе)
— Это все еще нейрока — ответы могут содержать ошибки и требует верификации человеком, например в тестах видел как модель делала отчет на основе картинок ПО НАЗВАНИЯМ картинок, bruh
— Это все еще лучший автономный ресечер что у нас есть, никто не может конкурировать — и Perplexity, и Google
— Deep Research не умеет смотреть за пейволл, такие статьи нужно прикладывать самим к чату

И напоследок, когда использовать Deep Research:
Когда вы начинаете исследовать какую-то тему — это быстрый и легкий способ погрузиться во что-то, дальше вы можете строить свое исследование на базе знаний из прошлых отчетов, углубляясь в тему с каждым запросом все глубже — от бизнеса до науки, пока не нашел сферу где нельзя было бы применить такой инструмент
Alibaba выпустила модель для генерации видео Wan 2.1 с открытым исходным кодом

Китайская компания запустила сайт видеогенератора Wan и выложила код модели Wan 2.1. В соцсетях пишут, что она «лучше» Veo 2 от Google.

Модель может создавать видео по текстовому описанию или из изображений, редактировать ролики и генерировать для них аудио.

Модель Wan 2.1 можно установить локально, скачав с GitHub или HuggingFace. В семействе Wan есть облегчённая T2V-1.3B, которая требует 8 ГБ VRAM и «совместима почти со всеми потребительскими графическими процессорами». Она создаёт пятисекундные видео в разрешении 480р.

Компания не уточнила, добавили ли Wan 2.1 в чат-бот Qwen Chat. На момент написания заметки функция создания роликов на сайте не работает из-за длинной очереди.
2
Официальный анонс OpenAI GPT 4.5 будет сегодня – ссылка на стрим будет позже 🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
в 23:00 https://www.youtube.com/watch?v=cfRYp0nItZ8
Если коротко:
👌GPT 4.5 советуют для креативных и повседневных задач
👌Модель может быть хуже o1/o3-mini, в каких-то задачах, так как «думающие модели» просто мощнее, хоть и меньше
👌Доступна в API с сегодня (будет дорогой) и в Pro аккаунте
👌Для Plus появится на следующей неделе
Вышла новая модель от Anthropic Claude 3.7, которая показывает отличные метрики на кодинг и математических тестах 🤯

А я сегодня как раз задумался, с такими темпами через пару лет два пути как будто

1/ Либо айтишники станут не нужны в привычном виде и станет больше продактов с курсором в руках

2/ Либо айтишники станут еще более востребованны, так как станнут эффективнее и ROI от одного программиста станет таким, что даже рестораны начнут нанимать 🦄

Еще есть вариант, что работа в it будет выглядеть как уборка г*внокода, написанного ИИ 😂

К чему реально это все приведет?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🚀 Нашёл простой способ прокачать ответы GPT-4.5 и других нейронок!

Оказывается, можно заставить нейросеть «подумать» поглубже перед ответом, добавив всего один маленький промт:
First, think deeply for five minutes (at a minimum — if after five minutes, you still don't have the optimal response, keep thinking until you do) about the best way to do this, inside <thinking> tags, and then respond with your answer.


Как использовать: просто вставьте этот текст перед или после своего запроса, и модель будет отвечать осознаннее и точнее.

⚡️ Важно: не применяйте к «размышляющим» моделям вроде GPT-4o или DeepSeek R1 — они и так уже слишком задумчивые.

Пост написал этим способом
Please open Telegram to view this post
VIEW IN TELEGRAM
Оказывается, GPT-4.5 уже поддерживает голосовой режим! 🔥 Как раз с его помощью попросил нейросеть сравнить эту модель с версией GPT-4o («Omni»).
🔥 Ребят, хватит мучить гугл и яндекс. У нас тут кое-что получше появилось — Genspark!

Это ИИ-платформа, которая на раз-два выдаёт тебе не просто ссылки, а готовые мини-странички с самой важной инфой. Без рекламы, без спама и без траты твоего времени.

Что прикольного?

🧠 Spark-страницы: сразу чёткий ответ, без воды.
⚡️ Всегда свежак: поиск обновляется в реальном времени.
😌 Zero реклама: чистая, честная инфа без лишнего шума.

Ещё кайфовые плюшки:

🎤 Ищи голосом, текстом, фоткой — как хочешь.
🤖 ИИ-ко-пилот: можно уточнять и болтать, как с живым человеком.
🍕 Персонализация: платформа быстро понимает, что именно тебе нужно.

И главное:


🕐 Не тратишь время на перебор ссылок.
🔐 Безопасно и приватно.
👍 Простой интерфейс — открыл и сразу понял, что делать.

Короче, если ценишь своё время и хочешь поиск нового поколения — зацени Genspark. Не пожалеешь.
Media is too big
VIEW IN TELEGRAM
⚡️⚡️​Runway - Restyled First Frame

​Runway представила функцию использования изменённого первого кадра в своём инструменте Video to Video, доступном в модели Gen-3 Alpha. Эта функция позволяет пользователям применять стилизацию к первому кадру видео для достижения более точного контроля над конечным результатом.
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Сlaude 3.7 вышла БЕСПЛАТНОЙ для всех

Человечная отлично кодит хорошо отслеживает что ты русский так что лучше не с Яндекс браузера.

Тестируем — здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM