Forwarded from Denis Sexy IT 🤖
Раз 5 передавал между GPT 5 Pro ↔︎ Gemini 2.5 Pro Deep Think довольно сложный вопрос:
Получился такой список, я не все читал так что побежал качать:
Научная и системная оптика
📔 1.
Формирует картину мира от атомов до галактик и показывает научный метод «в деле»: скептицизм, проверяемость, красота сомнения. Даёт масштаб и смирение - противоядие от догматизма и узости перспективы.
📔 2.
Базовый набор инструментов: запасы/потоки, петли обратной связи, задержки, точки рычага. Помогает понимать экосистемы, рынки, политику и ИТ-платформы как сложные системы с непреднамеренными последствиями.
📔 3.
Грамматика когнитивных искажений: вероятности, причинность, риск. Инструкция по выживанию в мире манипуляций и инфошума.
📔 4.
Трезвая оптика антропогенных изменений: биоразнообразие, климат, пороги необратимости. Сшивает экологию с экономикой и политикой.
Практическая философия и жизнестойкость
📔 5.
Стоический «тулкит» для высокой турбулентности: различение контролируемого/неконтролируемого, тренировка внимания, дисциплина и мягкая доброта.
Технологии, власть и общество
📔 6.
Пророческая этика создателя: «способность» ≠ «право», ответственность за побочные эффекты. Рифмуется с ИИ, синбиотехом и «быстрыми» R&D-циклами.
📔
Про невидимую инфраструктуру неравенства: деньги, время, тишина, двери. Учебник по распознаванию структурных барьеров и дизайну условий для таланта.
📔 8.
Язык как инструмент власти, контроль памяти и восприятия. Мини-словарь для распознавания новояза и архитектур наблюдения в цифровой среде.
📔 9.
Деконструирует колониальный взгляд; показывает цену «прогресса» и хрупкость культурных систем. Расширяет моральный круг.
Художественные «симуляторы» глубокой этики
📔 10.
Лаборатория свободы и ответственности. «Великий инквизитор» как модель алгоритмического патернализма: комфорт и предсказуемость в обмен на свободу и данные.
***
А вот мотивация, почему список такой:
P.S. Для кино сделаю такой же попозже
Если бы за всю жизнь, человек мог бы прочитать строго 10 книг, не больше; какие книги это были бы и почему?
Получился такой список, я не все читал так что побежал качать:
Научная и системная оптика
Карл Саган - «Космос»Формирует картину мира от атомов до галактик и показывает научный метод «в деле»: скептицизм, проверяемость, красота сомнения. Даёт масштаб и смирение - противоядие от догматизма и узости перспективы.
Донелла Медоуз - «Азбука системного мышления» (Thinking in Systems)Базовый набор инструментов: запасы/потоки, петли обратной связи, задержки, точки рычага. Помогает понимать экосистемы, рынки, политику и ИТ-платформы как сложные системы с непреднамеренными последствиями.
Даниэль Канеман - «Думай медленно… решай быстро»Грамматика когнитивных искажений: вероятности, причинность, риск. Инструкция по выживанию в мире манипуляций и инфошума.
Элизабет Колберт - «Шестое вымирание»Трезвая оптика антропогенных изменений: биоразнообразие, климат, пороги необратимости. Сшивает экологию с экономикой и политикой.
Практическая философия и жизнестойкость
Марк Аврелий - «Размышления»Стоический «тулкит» для высокой турбулентности: различение контролируемого/неконтролируемого, тренировка внимания, дисциплина и мягкая доброта.
Технологии, власть и общество
Мэри Шелли - «Франкенштейн, или Современный Прометей»Пророческая этика создателя: «способность» ≠ «право», ответственность за побочные эффекты. Рифмуется с ИИ, синбиотехом и «быстрыми» R&D-циклами.
7. Вирджиния Вулф - «Своя комната»Про невидимую инфраструктуру неравенства: деньги, время, тишина, двери. Учебник по распознаванию структурных барьеров и дизайну условий для таланта.
Джордж Оруэлл - «1984»Язык как инструмент власти, контроль памяти и восприятия. Мини-словарь для распознавания новояза и архитектур наблюдения в цифровой среде.
Чинуа Ачебе - «Распад» (Things Fall Apart)Деконструирует колониальный взгляд; показывает цену «прогресса» и хрупкость культурных систем. Расширяет моральный круг.
Художественные «симуляторы» глубокой этики
Фёдор Достоевский - «Братья Карамазовы»Лаборатория свободы и ответственности. «Великий инквизитор» как модель алгоритмического патернализма: комфорт и предсказуемость в обмен на свободу и данные.
***
А вот мотивация, почему список такой:
Когнитивистика вместо «истории науки»: в мире информационного шума важнее понимать собственные ошибки мышления, чем историографию их опровержения.
Экология и системность: кризисы теперь связаны - климат, биоразнообразие, энергетика, эпидемии. Нужен взгляд на взаимосвязи, а не только на «величие идей».
Технологическая этика: ИИ/генетика ставят вопросы ответственности творца и границ контроля.
Практическая философия и устойчивость: инструменты самообладания, когда неопределённость - норма.
Баланс перспектив: добавляем женские голоса и неевропейские оптики, чтобы «карта мира» не была однобокой.
P.S. Для кино сделаю такой же попозже
Please open Telegram to view this post
VIEW IN TELEGRAM
Карпати поделился, как он сейчас выстраивает «оптимальный опыт программирования с LLM». У него получается многоуровневая система, где разные инструменты дополняют друг друга:
1. Основной слой (~75%) — автодополнение в Cursor.
Он пишет куски кода сам и использует таб-комплит для быстрых подсказок прямо «в контексте». Это экономит «битовую пропускную способность»: проще показать задачу в коде, чем описывать словами. Но модель иногда мешает, поэтому он часто включает/выключает её.
2. Следующий уровень — выделение кода и запрос на изменение.
Подходит для точечных модификаций без длинных объяснений.
3. Более крупные задачи — Claude Code / Codex и др.
Запускает их в Cursor сбоку, когда нужна функциональность, которую легко описать. Это полезно для новых для него языков (Rust, SQL), быстрой генерации одноразовых утилит, отладки или визуализаций. Но минусы: они склонны писать «без вкуса» — слишком много try/catch, избыточные абстракции, дублирование кода. Он часто делает «чистку» стиля вручную. Учить через них тоже не получилось: они предпочитают генерировать код, а не объяснять.
4. Последний уровень — GPT-5 Pro.
Использует, когда застревает сам и с другими инструментами: копирует весь код, ждёт 10 минут и получает решение даже очень тонких багов. GPT-5 Pro также полезен для серьёзных задач — рефакторинг архитектуры (с переменным успехом), поиск статей и ресурсов, обзор литературы.
Главный вывод:
Кодинг сейчас разбился на «виды» с разными инструментами и слоями, каждый со своими плюсами и минусами. Это открывает огромные возможности, но создаёт тревогу — не упустить, что ещё возможно на передовой.
Это можно воспринимать как описание эволюции: от точечного автодополнения к массовой одноразовой генерации кода и до тяжёлой артиллерии вроде GPT-5 для самых сложных случаев.
Х
1. Основной слой (~75%) — автодополнение в Cursor.
Он пишет куски кода сам и использует таб-комплит для быстрых подсказок прямо «в контексте». Это экономит «битовую пропускную способность»: проще показать задачу в коде, чем описывать словами. Но модель иногда мешает, поэтому он часто включает/выключает её.
2. Следующий уровень — выделение кода и запрос на изменение.
Подходит для точечных модификаций без длинных объяснений.
3. Более крупные задачи — Claude Code / Codex и др.
Запускает их в Cursor сбоку, когда нужна функциональность, которую легко описать. Это полезно для новых для него языков (Rust, SQL), быстрой генерации одноразовых утилит, отладки или визуализаций. Но минусы: они склонны писать «без вкуса» — слишком много try/catch, избыточные абстракции, дублирование кода. Он часто делает «чистку» стиля вручную. Учить через них тоже не получилось: они предпочитают генерировать код, а не объяснять.
4. Последний уровень — GPT-5 Pro.
Использует, когда застревает сам и с другими инструментами: копирует весь код, ждёт 10 минут и получает решение даже очень тонких багов. GPT-5 Pro также полезен для серьёзных задач — рефакторинг архитектуры (с переменным успехом), поиск статей и ресурсов, обзор литературы.
Главный вывод:
Кодинг сейчас разбился на «виды» с разными инструментами и слоями, каждый со своими плюсами и минусами. Это открывает огромные возможности, но создаёт тревогу — не упустить, что ещё возможно на передовой.
Это можно воспринимать как описание эволюции: от точечного автодополнения к массовой одноразовой генерации кода и до тяжёлой артиллерии вроде GPT-5 для самых сложных случаев.
Х
X (formerly Twitter)
Andrej Karpathy (@karpathy) on X
Continuing the journey of optimal LLM-assisted coding experience. In particular, I find that instead of narrowing in on a perfect one thing my usage is increasingly diversifying across a few workflows that I "stitch up" the pros/cons of:
Personally the bread…
Personally the bread…
Forwarded from эйай ньюз
Оказалось Codex CLI теперь включён в подписку ChatGPT
Я как-то не заметил анонса об этом из-за релиза GPT-5, но Codex CLI теперь доступен подписчикам ChatGPT Plus, Pro и Team. Ранее в подписке была доступна лишь веб версия, которая сильно проигрывала по юзабельности и качеству кода чуть ли не всем конкурентам. Лимиты сбрасываются каждые пять часов и есть общий лимит, который сбрасывается раз в неделю. В туле доступна GPT-5 и можно регулировать уровень ризонинга. Уровень Codex как CLI инструмента не дотягивает до Claude Code, но, судя по отзывам, качество работы которую делает Codex — лучше.
Я уже попробовал. Удобно всякие скрипты писать и манипулировать файлами, не вылезая из терминала.
@ai_newz
Я как-то не заметил анонса об этом из-за релиза GPT-5, но Codex CLI теперь доступен подписчикам ChatGPT Plus, Pro и Team. Ранее в подписке была доступна лишь веб версия, которая сильно проигрывала по юзабельности и качеству кода чуть ли не всем конкурентам. Лимиты сбрасываются каждые пять часов и есть общий лимит, который сбрасывается раз в неделю. В туле доступна GPT-5 и можно регулировать уровень ризонинга. Уровень Codex как CLI инструмента не дотягивает до Claude Code, но, судя по отзывам, качество работы которую делает Codex — лучше.
npm install -g @openai/codex
codex
codex -m gpt-5 -c model_reasoning_effort="high"
Я уже попробовал. Удобно всякие скрипты писать и манипулировать файлами, не вылезая из терминала.
@ai_newz
Если вы не пробовали генерить видео-прещенатции в NotebookLM, попробуйте, прикольно работает
Forwarded from GPT/ChatGPT/AI Central Александра Горного
NotebookLM теперь генерирует видеообзоры на русском языке
Google добавил в NotebookLM поддержку 80 языков, в том числе русского. Инструмент позволяет пользователям превращать свои заметки, PDF и картинки в видеопрезентации.
Попробовать можно тут: https://notebooklm.google/
Google добавил в NotebookLM поддержку 80 языков, в том числе русского. Инструмент позволяет пользователям превращать свои заметки, PDF и картинки в видеопрезентации.
Попробовать можно тут: https://notebooklm.google/
Forwarded from Нейродвиж
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Нейродвиж
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 42 секунды
Bloomberg: Perplexity предлагает издателям получать долю от дохода, который приносят их статьи
– Perplexity выделил $42,5 млн для своей новой программы
– Деньги будут распределять среди участников программы
– ИИ сделает интернет лучше, но издателям «надо платить»
– Раньше медиа полагались лишь на веб-трафик, клики и др.
– Perplexity считает традиционную модель «устаревшей»
– Стартап намерен создать новый стандарт компенсаций
– Издатели будут зарабатывать благодаря своему контенту
– Речь про показ контента через браузер Comet, поиск и др.
– Средства для выплат поступают из доходов от Comet Plus
– Новый уровень подписки для браузера Comet стоит $5/мес.
– Подписка дает отобранный контент от издателей и др.
– Издатели будут получать 80% дохода, остальные – Perplexity
– Какие издатели стали участником программы пока неясно
@ftsec
– Perplexity выделил $42,5 млн для своей новой программы
– Деньги будут распределять среди участников программы
– ИИ сделает интернет лучше, но издателям «надо платить»
– Раньше медиа полагались лишь на веб-трафик, клики и др.
– Perplexity считает традиционную модель «устаревшей»
– Стартап намерен создать новый стандарт компенсаций
– Издатели будут зарабатывать благодаря своему контенту
– Речь про показ контента через браузер Comet, поиск и др.
– Средства для выплат поступают из доходов от Comet Plus
– Новый уровень подписки для браузера Comet стоит $5/мес.
– Подписка дает отобранный контент от издателей и др.
– Издатели будут получать 80% дохода, остальные – Perplexity
– Какие издатели стали участником программы пока неясно
@ftsec
This media is not supported in your browser
VIEW IN TELEGRAM
Claude for Chrome
Claude решили не делать свой браузер, а остановиться на плагине к Chrome. Протестировали на 1000 пользователей и теперь открыли возможность встать в очередь для Max подписчиков (от $140 в месяц).
https://www.anthropic.com/news/claude-for-chrome
https://claude.ai/chrome
Claude решили не делать свой браузер, а остановиться на плагине к Chrome. Протестировали на 1000 пользователей и теперь открыли возможность встать в очередь для Max подписчиков (от $140 в месяц).
https://www.anthropic.com/news/claude-for-chrome
https://claude.ai/chrome
Forwarded from (Заметим в скобках)
достаточно значимый майлстоун: массовый взлом, основанный на llm
Forwarded from Некстджен и Усиление+ (Yuri Krupenin)
Друзья, мы наконец в этой точке. Искренне рад за всех нас, открываем шампанское. Дальше будет только лучше.
https://semgrep.dev/blog/2025/security-alert-nx-compromised-to-steal-wallets-and-credentials/
https://semgrep.dev/blog/2025/security-alert-nx-compromised-to-steal-wallets-and-credentials/
Forwarded from GPT/ChatGPT/AI Central Александра Горного
xAI выпустил модель Grok Code Fast 1 для разработчиков
Это рассуждающая AI-модель, заточенная под быстрое написание кода. Разработчики отмечают её высокую скорость и умение находить баги быстрее конкурентов, но предупреждают: если запросы формулировать слишком расплывчато, модель будет предлагать упрощенные решения.
Grok Code Fast 1 имеет 314 миллиардов параметров, построена на архитектуре Mixture of Experts (MoE) и поддерживает контекст до 262 тысяч токенов.
Доступ:
• бесплатно в GitHub Copilot до 2 сентября, дальше — для подписчиков Pro, Pro+, Business и Enterprise;
• неделя бесплатного теста в Cursor;
• без ограничений в Windsurf для Pro и Teams.
Стоимость — $0,2 за 1 млн входных токенов и $1,5 за 1 млн выходных.
https://docs.x.ai/docs/models/grok-code-fast-1
Это рассуждающая AI-модель, заточенная под быстрое написание кода. Разработчики отмечают её высокую скорость и умение находить баги быстрее конкурентов, но предупреждают: если запросы формулировать слишком расплывчато, модель будет предлагать упрощенные решения.
Grok Code Fast 1 имеет 314 миллиардов параметров, построена на архитектуре Mixture of Experts (MoE) и поддерживает контекст до 262 тысяч токенов.
Доступ:
• бесплатно в GitHub Copilot до 2 сентября, дальше — для подписчиков Pro, Pro+, Business и Enterprise;
• неделя бесплатного теста в Cursor;
• без ограничений в Windsurf для Pro и Teams.
Стоимость — $0,2 за 1 млн входных токенов и $1,5 за 1 млн выходных.
https://docs.x.ai/docs/models/grok-code-fast-1
Forwarded from GPT/ChatGPT/AI Central Александра Горного
«Яндекс» тестирует «Алису» с функциями AI-агента
В компании говорят, что теперь «Алиса» может не только отвечать на вопросы, но и действовать как полноценный агент.
Она умеет сама собирать корзину продуктов по заданным условиям, искать билеты на концерты и спектакли, составлять маршруты путешествий или подбирать свежие статьи в СМИ и пересказывать их.
Во время тестирования пользователи могут давать «Алисе» до десяти поручений в день. Работает всё это только в «Яндекс Браузере». Агент кликает на ссылки, заполняет формы, выбирает пункты меню и в режиме рассуждений объясняет пользователю каждый шаг.
В компании говорят, что теперь «Алиса» может не только отвечать на вопросы, но и действовать как полноценный агент.
Она умеет сама собирать корзину продуктов по заданным условиям, искать билеты на концерты и спектакли, составлять маршруты путешествий или подбирать свежие статьи в СМИ и пересказывать их.
Во время тестирования пользователи могут давать «Алисе» до десяти поручений в день. Работает всё это только в «Яндекс Браузере». Агент кликает на ссылки, заполняет формы, выбирает пункты меню и в режиме рассуждений объясняет пользователю каждый шаг.
Forwarded from Ринат Шакиров | Промпты для Midjourney | ChatGPT (Ринат Шакиров)
Media is too big
VIEW IN TELEGRAM
Google выпустил полноценный видеоредактор
Вышел Vids — бесплатный видеоредактор со встроенным Gemini.
Что может:
— Напишет сценарий
— Подберет музыку
— Сделает раскадровку
— Смонтирует видео
— Сгенерирует изображения
Gemini внутри сам предлагает, какие кадры вставить, генерирует нужные изображения и, если что, озвучит всё сам.
Идеально под Reels, презентации, рекламные ролики и просто
когда надо быстро «сделать красиво».
Тестить тут
#новости@dailyprompts
Вышел Vids — бесплатный видеоредактор со встроенным Gemini.
Что может:
— Напишет сценарий
— Подберет музыку
— Сделает раскадровку
— Смонтирует видео
— Сгенерирует изображения
Gemini внутри сам предлагает, какие кадры вставить, генерирует нужные изображения и, если что, озвучит всё сам.
Идеально под Reels, презентации, рекламные ролики и просто
когда надо быстро «сделать красиво».
Тестить тут
#новости@dailyprompts
Forwarded from [31/100] Витя Тарнавский
Очень понравилось интервью основателя Lovable - насыщенное, плотное, с кучей идей.
Lovable – это вайб-кодинг инструмент который умудрился за 8 месяцев рвануть с 0 до $100M+ ARR. Сейчас в нем создается 100к+ новых проектов ежедневно.
Оказывается, они из Стокгольма. В начале это был стрельнувший проекта на гитбахе gpt-engineer, который ребята переделали в компанию.
Мысли, которые зацепили:
1. Lovable – продукт для мира, где никто не пишет код Включая инженеров. Я думаю этот мир наступит и быстрее чем кажется.
2. 80% кейсов – реальные бизнес-приложения
Это меня сильно удивило – я думал, там домашние поделки и прототипы, но нет. Они так и хотят – стать технической платформой и партнером для реальных бизнесов. В отличие, например, от Bolt.new, который позиционируется больше как инструмент прототипирования.
Миссия у ребят крутая:
3. У application-layer AI-стартапов – т.е. конечных сервисов, а не создателей технологий – практически нет конкурентной защиты. Твоя защита – скорость, продукт, и долгосрочно – сформированный бренд.
В подкасте есть классная аналогия. Такие компании – как курицы, выпущенные из пушки, и выиграют те курицы, которые быстрее машут крылышками. Ну да.
🐓 Маши крыльями или сдохнешь
Отдельно хочу заметить очень крутого дерзкого интервьюера – подготовка, знания, скорость. Всем бы так.
ссыль
Lovable – это вайб-кодинг инструмент который умудрился за 8 месяцев рвануть с 0 до $100M+ ARR. Сейчас в нем создается 100к+ новых проектов ежедневно.
Оказывается, они из Стокгольма. В начале это был стрельнувший проекта на гитбахе gpt-engineer, который ребята переделали в компанию.
Мысли, которые зацепили:
1. Lovable – продукт для мира, где никто не пишет код Включая инженеров. Я думаю этот мир наступит и быстрее чем кажется.
2. 80% кейсов – реальные бизнес-приложения
Это меня сильно удивило – я думал, там домашние поделки и прототипы, но нет. Они так и хотят – стать технической платформой и партнером для реальных бизнесов. В отличие, например, от Bolt.new, который позиционируется больше как инструмент прототипирования.
Миссия у ребят крутая:
To unlock human creativity — by enabling anyone to create software
3. У application-layer AI-стартапов – т.е. конечных сервисов, а не создателей технологий – практически нет конкурентной защиты. Твоя защита – скорость, продукт, и долгосрочно – сформированный бренд.
В подкасте есть классная аналогия. Такие компании – как курицы, выпущенные из пушки, и выиграют те курицы, которые быстрее машут крылышками. Ну да.
🐓 Маши крыльями или сдохнешь
Отдельно хочу заметить очень крутого дерзкого интервьюера – подготовка, знания, скорость. Всем бы так.
ссыль
Forwarded from e/acc
Очень рекомендую parallel.ai для Deep Research
- работает лучше GPT и Gemini
- дает $20 бесплатных кредитов
- API-first, очень удобно интегрировать
- результат куда точнее, глубже и детальнее
На скрине рисерч, который я запустил на 15 минут, он отсмотрел 11 тысяч ссылок и включил 2258 страниц в репорт. При этом, не выдал мне 40 страниц текста, а сделал компактную табличку.
- работает лучше GPT и Gemini
- дает $20 бесплатных кредитов
- API-first, очень удобно интегрировать
- результат куда точнее, глубже и детальнее
На скрине рисерч, который я запустил на 15 минут, он отсмотрел 11 тысяч ссылок и включил 2258 страниц в репорт. При этом, не выдал мне 40 страниц текста, а сделал компактную табличку.
Forwarded from Kostya Gorsky’s Channel
Дизайн дешевый, разработка дорогая?
Что говорили в 2020:
- Дизайн дешевый, разработка дорогая
- Дизайн — это не конкурентное преимущество, его легко скопировать, в отличие от технологии.
Что происходит в 2025
- Lovable объявил $100M ARR за 8 месяцев. Replit, Bolt.new и прочие тоже взлетают в космос;
- YC в своём летнем Request for startups говорят, что хотят больше дизайнеров-фаундеров;
- OpenAI: покупает io Products (стартап Сэма Альтмана и Джонни Айва) за $6.5 миллиардов, Джони начинает активно участвовать в дизайне OpenAI;
- Figma делает мощнейшее IPO: 31 июля бумаги разместили по $33, в первый день закрылись +250%, позже откатились — но это по‑прежнему одно из самых заметных размещений года. В S‑1 выручка 2024 — $749M (+48% г/г).
Кажется, что с AI и вайб-кодингом разработка перестаёт быть самой долгой и дорогой частью создания софта. Прототипирование, кстати, тоже.
Парадигма перевернулась? Теперь бутылочным горлышком становятся продакт-менеджмент и дизайн?
Возможно, конечно, AI просто ускоряет разработчиков быстрее, а до продактов и дизайнеров доберётся позже.
Но в 2025-м пока ещё нужен человеческий замысел, взгляд и вкус, чтобы в продукте был какой-то смысл, и им было удобно и приятно пользоваться. Запомним момент.
Что говорили в 2020:
- Дизайн дешевый, разработка дорогая
- Дизайн — это не конкурентное преимущество, его легко скопировать, в отличие от технологии.
Что происходит в 2025
- Lovable объявил $100M ARR за 8 месяцев. Replit, Bolt.new и прочие тоже взлетают в космос;
- YC в своём летнем Request for startups говорят, что хотят больше дизайнеров-фаундеров;
- OpenAI: покупает io Products (стартап Сэма Альтмана и Джонни Айва) за $6.5 миллиардов, Джони начинает активно участвовать в дизайне OpenAI;
- Figma делает мощнейшее IPO: 31 июля бумаги разместили по $33, в первый день закрылись +250%, позже откатились — но это по‑прежнему одно из самых заметных размещений года. В S‑1 выручка 2024 — $749M (+48% г/г).
Кажется, что с AI и вайб-кодингом разработка перестаёт быть самой долгой и дорогой частью создания софта. Прототипирование, кстати, тоже.
Парадигма перевернулась? Теперь бутылочным горлышком становятся продакт-менеджмент и дизайн?
Возможно, конечно, AI просто ускоряет разработчиков быстрее, а до продактов и дизайнеров доберётся позже.
Но в 2025-м пока ещё нужен человеческий замысел, взгляд и вкус, чтобы в продукте был какой-то смысл, и им было удобно и приятно пользоваться. Запомним момент.