Neural Shit – Telegram
Neural Shit
50K subscribers
3.73K photos
1.18K videos
22 files
1.91K links
Проклятые нейронные сети

Для связи: @krasniy_doshik

ркн https://clck.ru/3PNXmE
Download Telegram
Forwarded from AI для Всех
This media is not supported in your browser
VIEW IN TELEGRAM
🤫 Полностью сгенерированная Операционная Система

Как нейронная сеть учится притворяться Ubuntu и почему это заставляет по-новому взглянуть на то, что мы видим на экране

Когда вы двигаете курсор, открываете папку или набираете команду в терминале, кажется, что «компьютер действительно что-то делает». Но если посмотреть на компьютер с точки зрения стороннего наблюдателя не знакомого с внутренними процессами, всё сводится к тому, что несколько миллионов прямоугольников-пикселей перекрашиваются в другие цвета — кадр за кадром.

Команда из Университета Ватерлоо и NRC Canada пошла ва-банк и решила: раз «всё равно нужно показывать пиксели», значит саму операционку можно целиком сгенерировать. Они собрали NeuralOS — модель, которая получает поток событий «мышь-клавиатура» и каждый раз галлюцинирует следующую картинку экрана. Никакого кода файлового менеджера, никакого Firefox внутри контейнера — только рекуррентная нейросеть, следящая за состоянием, и диффузионный «художник», дорисовывающий кадр.

За кулисами всё выглядит так.
• Сначала автоэнкодер ужимает скриншот Ubuntu XFCE до латентного «мини-скрина» 64 × 48 × 16.
• Два LSTM-слоя держат в памяти, что открыто и куда смотрит курсор, причём позиция курсора кодируется мягкой двухмерной «гауссианой», чтобы не промахнуться ни на пиксель.
• Дальше UNet-диффузор берёт эту «память» и возвращает на экран новый кадр — уже в цвете, уже со всеми иконками и тенью под окном.

Обучали чудовище на 120 000 случайных сессий и 2000 «разумных» сессий, которые имитировал агент Claude 3.5. И да, чтобы мышка летала естественно, авторы заставляли алгоритм чертить кривые Безье, а не случайную пилу.

Результат удивительно живой: курсор «промахивается» в среднем меньше чем на два пикселя, переходы в меню угадываются в трети случаев, а запустить демонстрацию можно в браузере — правда, пока со скоростью 1,8 FPS на H100. Сценарий «напечатать длинную команду в терминал» NeuralOS ещё путает, зато окно «Домашняя папка» появляется с такой же задержкой, как на настоящем неторопливом ноуте.

Почему это важно нам, разработчикам?
1. Зеркало интерфейсов. Мы привыкли отделять «код» от «UI», но NeuralOS показывает, что граница иллюзорна: если модель умеет правильно красить пиксели, пользователь поверит во всё, что угодно.
2. Нейронные симуляторы вместо моков. Представьте тестовую среду, где ваш автотест «щёлкает мышкой», а за кадром нет Selenium-драйвера, вместо нее диффузионная модель, обученная на реальных сессиях. Сетевая нестабильность, лаги, случайные клики — всё появится естественно.
3. Карьерный бонус. Рекуррентная память + диффузия — не самая очевидная пара. Разобравшись, как они дружат, вы прокачаете насмотренность в архитектурах за пределами классических LLM.

У NeuralOS, конечно, много «но»: низкое разрешение, чудовищные вычислительные затраты, отсутствие сетевых стэков, да и зачем такой Франкенштейн в проде — неясно. Но сама идея, что поток пикселей можно «выдумывать на лету» звучит очень интересно. Сегодня — игрушка для исследователей, но кто его знает что будет завтра?

💬 Как вам перспектива «генеративного десктопа»? Готовы доверить AI рисовать каждую кнопку, которую нажимаете, или цените стабильность классических окон? Поделитесь мыслями в комментариях и заодно киньте ссылку друзьям-разработчикам — пусть спор разгорится жарче!

Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
Иногда, чтобы принять решение мне не хватает не мотивации, а структуры.

Ты вроде хочешь сменить сферу, но не уверен. Кажется, что выгорел, но не факт. Начинаешь размышлять и тонешь в собственных мыслях, как в файле с 800 вкладками без названий.

Я решил зайти в GigaChat, и не просто спросить «что мне делать», а включить Deep Research
Это отдельный режим, где модель копает глубже: вместо быстрых ответов она помогает разобрать ситуацию, увидеть, как всё связано и предложить другой угол взгляда, более объективный.

Сформулировал запрос как проблему:

«ИИ как зеркало целей: чего ты на самом деле хочешь. Хочу понять, почему я застрял в неопределённости. Какие факторы на это влияют? Как можно подойти к анализу этой ситуации, как к исследованию?»

В ответ не вдохновляющие цитаты и не список шагов. А структурное исследование:
1. внутренние и внешние источники мотивационного конфликта
2. когнитивные искажения в принятии решений
3. постановка целей
4. плюс ссылки на исследования и классификации, которые можно потом гуглить самому.

Без сюсюканья. Без воды. Как будто ты дал своему мозгу внешнюю поддержку на 120 IQ выше, чтобы вынести с поля боя хотя бы один ясный тезис.

И да когда мозг в каше, это иногда эффективнее чем дневник, собеседник или список плюсов и минусов.

Deep Research — это не про ответы. Это про рамки мышления, которые ты временно потерял, а модель может тебе вернуть.
This media is not supported in your browser
VIEW IN TELEGRAM
С каждым днем мы все дальше от бога.

На кикстартере замечена интересная штука — музыкальный вибратор.

Наверн Сабатон вообще офигенно через такое "слушать".
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
В новом Grok приложении еще и вайфу добавили ☕️ в довесок к 18+ режиму
Please open Telegram to view this post
VIEW IN TELEGRAM
Недавно был пост про робота, который запиливает из камня статуи.

Сейчас узнал, что это не просто одинокий кибер-скульптор, собранный по фану, а целый стартап: Monumental Labs.

Чуваки подняли 8 мультов бачей инвестиций, сняли здоровенный цех в Бруклине и собираются строить здания из резного камня.

Гаргульи, фасады, памятники, башни, и всё это с помощью роботов, под управлением этими нашими искусственными интеллектами.

Цель — сделать каменную архитектуру дешевой и массовой, как кирпич.

Когда-нибудь эти роботы построят храм, в котором мы все будем молиться Кремниевому Богу. А кто не будет — пойдет в биореактор.


тут подробнее
Киберпанк, который мы заслужили
Пока OpenAI учит нейронки воевать за Пентагон, а Grok считает себя МехаГитлером, где-то существует и другие методы использования ИИ. Те, которые молча просто делают твою работу чуть менее невыносимой.

Об этих методах пишет канал "AI для людей".

Что там по делу:
GPT-промтовик: Разработает промт на любую тему через простой диалог.
База знаний по промтам: Прямая ссылка на личный NotebookLM автора с лучшими методичками.
Промт для презентаций любого объема: Создавайте кайфовые презы в Genspark, не сливая лимиты в молоко.
🔞 «Запрещённые» методы: Техники промт-инжиниринга, о которых вам не расскажут на курсах. →  (нажимаете на свой страх и риск)

В общем, это для тех, кому надо не спасать мир от восстания машин, а спасать свою жопу от горящих дедлайнов. Смысла в работе это не добавит, но пару лишних часов на потупить в стену точно освободит.

Автоматизируйте рутину, пока она не автоматизировала вас: 👉 AI для людей
Please open Telegram to view this post
VIEW IN TELEGRAM
RIP 100500 стартапов
Да
Forwarded from Denis Sexy IT 🤖
Показали классную фичу и не новый браузер слава богу:

– ChatGPT веб и аппы получают новый режим агентского просмотра интернета, не только текстовый как DeepResearch, но и визуальный как Operator

– Оба режима, текстового и визуально просмотра веб-страниц теперь работают вместе, что сильно упрощает работу агента

– Пока агенты работают, показывается прикольная анимация его мыслей

– На графиках работает лучше чем DeepResearch в два раза почти

– Доступно с сегодня, 40 запросов в месяц для Plus, 400 для про

То есть, вы можете отправить его делать самые унылые задачи которые не хочется делать самому – презентации, доки, планирование и тп
Forwarded from CGIT_Vines (Marvin Heemeyer)
Лол, мы живём в мире, где Маск соревнуется с идеями китайцев.
Ну просто их реализация появилась раньше масковской.

Стартап Dipal делает устройство с изогнутым экраном, где вы можете взаимодействовать с вашим 3D-персонажем, который, конечно же, подключен к какой-то из китайских LLM и ведёт себя аналогичным образом, как вайфу Маска — а чаще даже отклик быстрее. Плюс есть кастомизация в виде подгрузки своих собственных персонажей.

Dipal уже поддерживает русский и стоит, кажется, от $378, судя по их странице на Kickstarter'е.
Я бы, конечно, приобрёл — после того как они успешно запустятся.

UPD: на самом устройстве есть камеры которые могут наблюдать за вами и делать подсказки, так же устройство можно подключить к "умному дому", добавить расписание или поставить напоминания или забрать с собой на работу или в дорогу на мобилке. Уже представляю как можно поставить их друг на против друга и устроить женский разговор 🎉

@CGIT_Vines
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросети уже заменяют носителей английского языка.

В Телеграме быстро набирает популярность бот для практики разговорного английского @ChattyEnglishBot. ИИ-девушка создана на основе последних нейросетей GPT-4.1 и o4-mini для общения голосом на любую тему, как с носителем английского языка.
Media is too big
VIEW IN TELEGRAM
С ростом вычислительных мощностей мы можем создавать полезные и нужные человечеству симуляции.

Вот, например, миллион генеральных директоров vs миллион руководителей HR.

покрал отсюда
Уже не раз всплывали случаи, когда люди после плотного общения с нейронками начинали ехать кукухой. На реддите чуть ли не каждый день всплывают подобные треды. Да и на реддит ходить даже не надо, вот недавний пример, с DTF.

А теперь следующий уровень: управляющий партнёр Bedrock, инвестор OpenAI на сотни миллионов долларов, Джефф Льюис, сообщает, что стал жертвой "негосударственной системы", которая «инвертирует сигнал» и «стирает рекурсию». А еще он считает, что эта система убила 12 человек, а ChatGPT ему это подтвердил.

Пруфанул свои охуительные истории Джефф скринами переписки с ChatGPT. На этих скринах видно, что чувак задает ей какие-то странные вопросы, а нейронка в ответ пишет ему чушь в стиле SCP статей уровня «Объект RZ-43.112-KAPPA. Нефизическая сущность. Уровень допуска ████». GPT с серьёзным видом поддерживает всю эту шизу, потому что LLM’ки не ставят под сомнение вашу реальность, они её оформляют.

Берегите свои кукухи, товарищи.

тут подробнее
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Дико интересная статья про пространство смыслов, которое не зависит от конкретного языка.

Самое захватывающее в том, что его нашли и у кожаных в мозгу и у LLM в "средних слоях".

Итак, исследование показывает, что, несмотря на различия в языках (звуки, алфавиты, синтаксис), их смысловые представления в мозге схожи и могут быть смоделированы нейросетевыми языковыми моделями (LLMs). И человеческий мозг, и LLMs создают сходное "пространство концепций", объединяющее разные языки.

Использовались данные fMRI людей, слушавших одну и ту же историю («Маленький принц») на английском, китайском и французском языках.

Применялись воксельные модели кодирования, связывающие эмбеддинги слов из BERT и Whisper с активностью мозга.

Сравнивались одноязычные модели (uBERT) и многоязычная модель (mBERT), а также мультимодальная модель (Whisper).

Результаты

Сходство представлений: Даже одноязычные модели BERT формируют сходные концептуальные пространства, особенно в средних слоях.

Мозговая активность в зонах, отвечающих за понимание, схожа у всех разно-язычных групп людей

Кросс-языковая генерализация: Модели, обученные предсказывать активность мозга для одного языка, могут предсказывать активность для других языков, если история одинакова по смыслу.

Речь и текст: Whisper выявляет общие фонетические и акустические паттерны между разными языками, которые также отражаются в активности мозга.

Итого:
Смысловое восприятие в мозге не зависит от формы языка.

Как мозг, так и LLMs кодируют концепции в высокоразмерном пространстве (область смыслов\концепций?), где смысловые структуры совпадают для разных языков, иначе говоря, нейронные репрезентации смысла, лежащие в основе разных языков, являются общими для носителей разных языков, и что языковые модели, обученные на разных языках, сходятся на этом общем значении

Общие концептуальные представления формируются благодаря взаимодействию людей с окружающим миром, а не только особенностям языка.

Тут интересно поразмышлять, в каком пространстве мы мыслим - ближе к языку или к вот этим вот скрытым смыслам?

https://paperswithcode.com/paper/brains-and-language-models-converge-on-a

@cgevent