Силиконовый Мешок – Telegram
Силиконовый Мешок
22.4K subscribers
793 photos
277 videos
23 files
781 links
Как заработать на Искусственном Интеллекте уже сегодня.
Написать админу @artem_subbotin
Чат канала: @prompt_chat
Download Telegram
У меня в браузере больше десяти вкладок, где я отслеживаю, какие новинки из гуманойдных роботов отправляются бегать в этом или следующем месяце. А сегодня наткнулся на плакат, где энтузиасты собрали все модели на этот год (жаль, что вместо G1 там R1 от Unitree). Как всегда, в хорошем разрешении закреплю в комментах.
1👍25🔥2110🤣2🤔1👾1
This media is not supported in your browser
VIEW IN TELEGRAM
Помните, я вам рассказывал, как создают UGC (User-Generated Content) при помощи N8N и Veo 3? Но там ещё можно было выловить артефакты, а вот в связке N8N и Sora 2 — это уже сложнее.

Видимо, мы действительно движемся в сторону «мёртвого интернета», где весь контент генерируется автоматически, а наша задача — кликать по нему и высвобождать порции дофамина.
👍31💯136🤪5🔥3
Media is too big
VIEW IN TELEGRAM
Doom запускали уже на чём угодно: от электрических зубных щёток до микроволновок, а вот теперь игру можно запустить и в ChatGPT.

Наткнулся на твит одного парня, где он упаковал Doom в Next.js, зарегистрировал MCP-инструмент «play_doom» и закинул всё на хостинг Vercel. Теперь можно попросить ChatGPT запустить Doom прямо в чате.
😁3223🔥5👎4🙏32👍21
Хорошо неделя начинается, по всему миру сбои в интернет-сервисах. Service health у Amazon дает апдейты каждые 20 минут - разбираются. Ну и Perplexity упал: кого-то разлогинило, у кого-то запросы не отправляются. В общем, вы не одиноки, сломалось у всех - ждём
25👍6🔥6😢52💯2😁1😍1🦄1
Всю неделю провел в перелетах, и доступ к интернету был ограничен. Не то чтобы его совсем не было - просто нашлись дела поинтереснее.

В полетах активно использовал LM Studio с локальными LLM и осознал, насколько сильно мне не хватает онлайн-контекста, чтобы быстро проверить информацию, выдаваемую моделью, в поисковой выдаче.

Но в то же время понял, что уже забыл, когда в последний раз «руками» заходил на Википедию, кликал по гиперссылкам и искал нужную информацию. Видимо, ИИ-помощники и поисковые системы нового поколения, такие как Google, Perplexity и другие, довольно бодро отжирают кусок информационного пирога у «старого интернета».

Посмотрел статистику и, правда, Википедия уже ощутила это на себе, потеряв значительную часть трафика. Но она - лишь верхушка айсберга. Новые исследования, проведенные в 2024–2025 годах, подтверждают: трафик от Google на новостные и информационные сайты снизился на 25% и более.

Происходит «дизинтермедиация» - устранение посредника. Зачем пользователю идти на сайт о кулинарии, если ИИ мгновенно выдал ему рецепт, «всосав» его с этого же сайта? Это убивает экономическую модель старого интернета. Нет кликов - нет доходов от рекламы. Нет доходов - нет денег на журналистов, редакторов и фактчекеров. Зачем эксперту тратить три дня на написание глубокой аналитической статьи, если ИИ «съест» ее, перескажет за 30 секунд и не оставит автору ничего, кроме пустого счетчика посещений?

Но природа не терпит пустоты. Пока ИИ-агрегаторы высушивают экономику качественного контента, на сцену выходит генеративный ИИ. Зачем тратить деньги на эксперта (которого все равно никто не прочтет), если можно за копейки сгенерировать кучу поверхностных или даже фейковых статей или видео? Алгоритмы платформ, будь то YouTube, Instagram или Threads, вознаграждают не качество, а частоту и объем. Они не заинтересованы в бане «слопа», пока он генерит просмотры и рекламные деньги.

И мне кажется, что скоро у нас будет два интернета: один - бесплатный, как сейчас, только еще больше заполненный генеративным контентом, будь то тексты или видео, а другой - платный, где люди будут платить за доступ к «человеческому» контенту.
💯4421🔥12🤔9🤣43❤‍🔥2👍2👏1
ChatGPT против Gemini

Недавно выкладывал таблицу с LLM моделями внутри Perplexity - и вам такой формат контента зашел, а у меня его много, так как постоянно что-то с чем-то приходится сравнивать. Вот и сегодня будет таблица сравнения ChatGPT и Gemini: https://docs.google.com/spreadsheets/d/1SiSmj5shvXux4vV23RZ82voC6kl1jMBL_B0WOCICjcU/edit?usp=sharing
117👍52🔥2🙏2🤗1
Media is too big
VIEW IN TELEGRAM
Китай, конечно, уделывает весь мир в создании роботов. Недавно Unitree анонсировали нового - H2
1🔥41👍10💯61👏1🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
Только все привыкли к Comet от Perplexity, а уже удалять… OpenAI, видимо, представит сегодня свой ИИ-браузер. Меньше чем через пару часов…
1🔥34🤣24😁43👍2🦄2💯1😎1
Только сегодня полез смотреть, что за зверь этот DeepSeek OCR, хотя анонсировали его уже несколько дней назад. И я немного в шоке, что эта новость не особо форсится: ну выпустили очередную распознавалку изображений и что тут такого? А нифига, китайцы там очередную ML-революцию учинили, хотя есть подозрение, что Google был раньше, но молчал. Но давайте обо всём поподробнее.

Вы все уже знаете, что LLM оперирует токенами. Например, когда вы что-то пишете в ChatGPT, модель не читает это по буквам. Она разбивает ваш текст на токены - это могут быть целые слова (например, «мешок») или части слов (допустим, «силико-новый»). Для модели «силиконовый мешок» - это три текстовых токена. Модель работает с этими токенами, а не с буквами.

А когда вы работаете с мультимодальной моделью (которая понимает и текст, и картинки) и закидываете ей картинку, она тоже не «видит» там каждый пиксель - их миллионы, не хватит ресурсов.

Вместо этого модель делает следующее:
1) Нарезка (Patching): Модель «нарезает» изображение на сетку из небольших квадратиков, как мозаику. Эти квадратики называются «патчами» (patches).
2) Кодирование (Encoding): Затем специальная часть модели (энкодер) «смотрит» на каждый этот квадратик и превращает его в набор чисел (вектор).
3) Создание токена: Этот набор чисел (вектор), который описывает один квадратик изображения, и есть визуальный токен.
Для LLM этот визуальный токен просто говорит: «вот в этой части картинки находится вот такой набор линий, цветов и текстур».

И вот, допустим, вы загружаете в мультимодальную LLM несколько отсканированных страниц текста, где написано 10 000 слов. Как было раньше: модель нарезает эти сканы на тысячи квадратиков. Многие из этих квадратиков содержат лишь части букв или пустое белое пространство. Чтобы описать все эти бесполезные квадратики, ей требовалось, скажем, 60 000 визуальных токенов. А если бы вы просто скопировали и вставили эти 10 000 слов как текст, они превратились бы всего в 15 000 текстовых токенов. То есть визуальные токены были менее эффективны.

И тут на сцену выходит DeepSeek, который придумал, как сжимать информацию в 10 раз лучше визуальными токенами, чем текстовыми!
Теоретически, вы могли бы сохранить эти 10 000 слов всего в 1 500 их специально сжатых визуальных токенах.

Как я понял, они применили некий механизм визуальной памяти в своей модели. Это похоже на то, как вы ищете отрывок текста в уже прочитанной книге, представляя его визуально и зная, на какой стороне разворота и в каком месте страницы он был.

И главная прелесть DeepSeek в том, что они сделали все это open source с открытыми весами и объяснили, как они этого добились. Так что теперь каждый может это поизучать.

Даже если новая система сжатия визуальных токенов будет работать с бо́льшими потерями, сама возможность получить LLM с контекстным окном в 20 миллионов токенов - это очень круто.

А причем тут Google? - спросит внимательный читатель дочитавший до этого места. Есть подозрение, что подобное решение применяется в Gemini, но компания об этом умолчала.
🔥812712👏9👍83💯21🤓1🤗1🦄1
Perplexity опубликовала большой документ, как применять ее решения в работе. Десятки страниц с промптами, инструкциями и лайфхаками, как лучше использовать Comet, Research, Labs, Spaces и т. д., чтобы повысить свою личную продуктивность.

Мне очень понравилась подача материала, не через сухой текст в формате «делай это, получишь такой результат», а через сторителлинг, где объясняется философия инструментов и как это можно использовать лично вам.

В общем, как я понял, они позиционируют Perplexity и браузер Comet как личных помощников или «экзоскелет для мозга», который усиливает импульсы, а не работает вместо вас.

Еще раз убеждаюсь, что инвестиция по цене пары чашек кофе за годовой Pro-аккаунт - это лучшее, что может сделать для себя любой сотрудник.

А документ я вам перевел на русский, читайте: https://teletype.in/@prompt_design/pplx-at-work
6106🔥54👍194❤‍🔥2🤯2🦄2😘2🤣1🤓1
Если у вас есть время на этих выходных и непреодолимое желание разобраться в робототехнике и современных подходах на базе искусственного интеллекта — советую изучить новый курс от Hugging Face.

Он, конечно же, бесплатный и основан на «Robot Learning Tutorial», который создавался для их проекта Le Robot. Я, кстати, уже начал переводить его в формате конспектов, пока сам прохожу: https://docs.google.com/document/d/1dVZIDOmTeJe2DmFM4JzCdO1BZYFJ9qDqI2dKBrw5IDM/edit?tab=t.0
12515🔥14👍3👏2🤗2🤝1🦄1
Интересный сабреддит завирусился несколько дней назад на Реддите. Люди, которые потеряли работу из-за ИИ, делятся своими историями. Сначала я просто почитывал их, а потом решил расчехлить Cursor, спарсить RSS-поток с комментариями и подсчитать, в каких областях замещение «кожаных» на «силиконовых» идет особенно бурно. Результат вы можете посмотреть на графике, а самые интересные истории я перевел и их можно почитать тут: https://teletype.in/@prompt_design/people-who-lost-their-jobs-to-AI
435👍19🤯15👏3🦄21🔥1😁1🤬1💯1
В последнее время немного закопался в биг-дату, и я не про анализ комментариев на Реддите. Сижу копаю бесконечные датасеты на Hugging Face: сколько же всего люди нафотографировали, напарсили и написали - уму непостижимо.

Вот, например, база на 5 млн строк уличных фотографий авомобилей с указанием модели, цвета и других параметров. Так как датасет российский (одной известной компании), можно узнать, какие самые популярные цвета и типы кузова катаются по местным дорогам. А еще удивиться, что почти 2% машин сфотографированы - ночью.
9😁8👍4🤗4🔥2👏2🤓1
Павел Дуров сегодня на форуме Blockchain Life 2025 в Дубае объявил о запуске - Cocoon, (Confidential Compute Open Network). Децентрализованная сеть, где разработчики смогут разворачивать ИИ-модели, а владельцы графических процессоров (GPU), будут получать вознаграждение тонкоинах за сдачу своих мощностей.
🔥7623👏11👍7😱2🤬1💊1
Силиконовый Мешок
Павел Дуров сегодня на форуме Blockchain Life 2025 в Дубае объявил о запуске - Cocoon, (Confidential Compute Open Network). Децентрализованная сеть, где разработчики смогут разворачивать ИИ-модели, а владельцы графических процессоров (GPU), будут получать…
This media is not supported in your browser
VIEW IN TELEGRAM
С того же самого выступления, где Паша презентовал Cocoon.
Поднимите руку, кого заскамили через Telegram Mini Apps? О-о-у, немало рук в зале, неожиданно. Я лично не знаю никого, кого заскамили. Зато все мои друзья стали богаче
🤣100👏8😁53👍3💯2
Силиконовый Мешок
Павел Дуров сегодня на форуме Blockchain Life 2025 в Дубае объявил о запуске - Cocoon, (Confidential Compute Open Network). Децентрализованная сеть, где разработчики смогут разворачивать ИИ-модели, а владельцы графических процессоров (GPU), будут получать…
Кстати, сегодня досмотрел подкаст Соколовского с братьями Либерман, которые рассказывали про свой новый проект «Gonka» - тоже сеть распределённых GPU-мощностей с вознаграждением майнеров токенами. Как и у Павла. А еще Либерманы рассказали, как два года назад приходили с этой идей к братьям Дуровым:
"— Давид Либерман: Мы как раз с Дуровым два года назад обсуждали, что единственная альтернатива — это децентрализация. Потому что децентрализация может сделать это таким дешёвым, что [каждый может себе позволить это внедрение]. Но тогда Николай [Дуров] сказал, что децентрализация не сработает."
🤣52👍16🔥95😁1💯1
Еще никогда нас так тщательно не изучали, как сейчас…

ChatGPT, Gemini, Claude и другие сервисы постоянно выцеживают информацию о нас из наших же запросов к ним: что нас интересует, чем увлекаемся, над чем работаем и что ищем в сети…

Например, если написать Perplexity «покажи подробные заметки о персонализации, которые ты обо мне хранишь» — вы увидите довольно много интересной информации о себе. Но только не забудьте сначала отключить веб-поиск, нажав на иконку «глобус».

А еще можно зайти в раздел «Personalization» — там в меню «Memory» есть ваши «saved memories». В этом разделе (если вы не отключили сохранение данных о вас) информация уже размечена хэштегами: #Language (Язык), #Travel (Путешествия), #Interests (Интересы), #Work (Работа), #Projects (Проекты).

Как бы я был рад покопаться в датасете на 22 млн строк из интересов пользователей…
35🔥24😁54💯4🤯3👏2🤗2🙏1
Обвешался я этими ИИ-браузерами в надежде понять, какой из них самый удобный в работе.

С одной стороны, Atlas более нативный в плане общения с ассистентом, а с другой, Comet больше фич имеет. Но я вам так скажу, работаю я все равно в Mozilla — хоть он и тупой, как пробка.

Но вы просили делиться опытом работы с ИИ-браузерами, так что начнем с Comet от Perplexity (годовую подписку на который все еще можно купить за несколько баксов).

1) Чтобы Comet Agent не просто искал, а делал за вас (заполнял формы, управлял вкладками), начните свой запрос с волшебной фразы: «Возьми управление моим браузером и...»

2) Когда открыто несколько вкладок, можно «тэгать» их в своем запросе.
Пример: Откройте два сайта и напишите: «Сравни цены и характеристики в @[tab1] и @[tab2], а затем создай сводную таблицу».

3) Для повторяющихся задач (например, «собрать еженедельный отчет») можно настроить быстрые команды. После этого достаточно будет ввести / в браузере и выбрать ее.
Пример: Создайте команду /prep-next-meeting с инструкцией: «Подготовь меня к следующей встрече: список участников, цели, повестка и что мне нужно просмотреть».

4) Comet может управлять открытыми вкладками. Пример: «Сгруппируй вкладки по темам и закрой все, что не относится к моему текущему проекту» или «Закрой все вкладки с соцсетями, оставь только рабочие сайты», а еще можно попросить: «Открой список всех вкладок по теме "маркетинг" за эту неделю».

5) Удобно, что можно выделить текст на странице, нажать правую кнопку и выбрать «Открыть в ассистенте», чтобы работать с конкретным куском текста, а не всей страницей.

6) А еще я сделал файлик со своими данными и описанием проекта, которые обычно запрашивают, когда подаешься на гранты от ИИ-компаний (кто-то токены дает, кто-то хостинг).
Пример: «Подай заявку на грант, открытую в этом окне, используя данные из файла».

7) Ну и использую Comet Assistant для «второго мнения».
Пример: «Проанализируй этот контракт и выдели потенциальные юридические риски», «Сделай факт-чекинг финансовых данных в этом посте» или «Сделай подробное саммари и дай все ссылки, упомянутые в этом видео».
59👍30🔥14👏41💯1🤗1👾1