Чернов пишет – Telegram
Чернов пишет
1.36K subscribers
807 photos
43 videos
168 files
1.01K links
Эй ай и вот это вот всё. Qlik
https://chernovdev.ru/
https://vkvideo.ru/@chernovdev
Download Telegram
Скрытая цена автономии: OpenAI тренирует агентов на корпоративных тайнах

Переход от LLM к полноценным AI agents требует данных, которые невозможно синтезировать. Стало известно, что OpenAI использует контракторов, которые за плату сливают реальные документы со своих основных работ для обучения системы, создавая серьёзные риски для корпоративной безопасности.

Утечка через Data Partnership. Обучение agentic систем отличается от работы чат-ботов. Чтобы научить ИИ решать многошаговые рабочие задачи, ему нужно видеть реальные процессы. Контракторы загружают инвестиционные отчеты, спецификации и внутренние переписки, фактически превращая OpenAI в теневое хранилище чужих коммерческих секретов.
Невольные шпионы. Работники нарушают NDA непреднамеренно. Инструкция "загружайте документы, к которым у вас есть доступ" создаёт правовую коллизию: формально сотрудник имеет доступ, но передача конфиденциальных данных третьей стороне для обучения моделей — это классический инцидент информбезопасности.
Проблема "мусора в данных". Синтетические данные слишком идеальны. Агенты должны учиться на реальном "мусоре" — кривых таблицах, сканах и неструктурированных текстах, чтобы быть полезными. Без этих "грязных" файлов агент будет бесполезен в реальных бизнес-условиях.
Риск компрометации. Хотя OpenAI заявляет о возможности удаления данных, факт их попадания в обучающую выборку или логи разработчиков создает необратимый риск. Компания получает инсайт во внутреннюю кухню конкурентов без официальных партнёрств, что поднимает этические вопросы.

Мы учим ИИ быть эффективными сотрудниками, жертвуя конфиденциальностью. Следующий прорыв в автоматизации может быть построен на документах, которые вы никогда не хотели показывать посторонним.

Источник
@chernovdev
Ну, вроде бы всё, автоматизировал сборку новостей с разных сайтов, выбор лучшего, постобработку и публикацию в канал.

Посмотрим как будет это работать

#n8n @chernovdev
Apple и Google: Революционный брак по расчету или спасение Siri?

Эпоха изолированных AI закончилась. Apple, хранительница приватности, официально доверила «мозги» Siri Google Gemini. Это не просто интеграция, а фундаментальный слом архитектуры iOS, о котором мечтали, но боялись говорить вслух.

1. Гибридная архитектура вычислений: Больше не просто «облачный поиск». Apple использует собственные чипы Neural Engine для локальных триггеров, но всю тяжелую семантическую нагрузку передает в Gemini. Это позволяет сохранять низкую задержку при получении ответов, но при этом использовать гигантский контекст Google.
2. Приватность через «сэндвич»: Самый тонкий момент для сеньоров — это использование Private Cloud Compute. Apple выступает прокси, реализуя сложную схему маршрутизации трафика. Запрос шифруется на устройстве, отправляется в облако Apple, где обезличивается, и только в таком виде уходит в Google Cloud. Технически это решает проблему утечки метаданных.
3. Эволюция SiriKit: Старый Intent-подход уходит в прошлое. Разработчикам готовьтесь работать с новыми API, которые позволяют приложениям выставлять свои функции в общую «векторную базу» Gemini. Это означает, что ассистент будет контекстно-осведомлен о происходящем в вашем приложении без жесткого прописывания Intents.
4. Мультимодальность как стандарт: Siri больше не реагирует только на голос. Благодаря Gemini, она теперь видит контекст на экране и может анализировать изображения в реальном времени.

Для юзера это умный телефон. Для разработчика — необходимость переосмыслить UX под агентов. AI-война только началась, и этот альянс меняет правила игры.

Источник
@chernovdev
Чтото недоработал в пайплайне, ладно, исправим )
Meta ломает шаблоны: Эпоха полной независимости от "железа" гигантов

Гонка вооружений ИИ перешла из плоскости алгоритмов в сферу физической инфраструктуры. Марк Цукерберг анонсировал инициативу, которая не просто снижает зависимость от NVIDIA, а переписывает правила игры на уровне «железа», создавая вертикально интегрированную экосистему.

Кастомный кремний MTIA против масс-маркета: Meta делает ставку на собственные ASIC-чипы следующего поколения. Это отход от универсальных GPU в пользу гиперспециализированных accelerators, оптимизированных под matrix multiplication для их LLM. Это дает колоссальный прирост performance per watt, что критично для масштабирования.
Революция в охлаждении: Внедрение двухфазных систем погружного охлаждения в стандартных rack-монтажах. Переход от воздушного к жидкому охлаждению позволяет упаковывать вычислительные мощности с плотностью, недоступной традиционным дата-центрам, снижая PUE до теоретического минимума.
Open-source архитектура: Самый неожиданный ход — Meta открывает спецификации топологии сети и конструктивов стоек. Это прямой удар по vendor lock-in корпоративных вендоров, дающий старт развитию «белого» рынка AI-инфраструктуры.
Оптимизация Interconnects: Создание кастомных сетевых fabric для связи между кластерами. Узким горлышком всегда была пропускная способность, и Meta решает это путем интеграции протоколов, минимизирующих latency при распределенном обучении.

Мы стоим на пороге демократизации доступа к суверенным вычислительным мощностям, где барьером входа становится только энергия, а не проприетарные технологии.

Источник
@chernovdev
🔥2
🎰 vs 💻: Почему казино и вайб-кодинг — это одно и то же?

Программисты и гемблеры (лудоманы, кому как угодно) — братья по духу!

1️⃣ Инвестиции:
Покупаешь фишки у крупье / Покупаешь токены для кодинга

2️⃣ Самообман:
"Это последняя крутка рулетки!" / "Это последний итерационный цикл!"

3️⃣ Иллюзия контроля:
"У меня есть беспроигрышная стратегия" / "Я — гуру промпт-инжиниринга"

4️⃣ Вечная надежда:
"Следующая ставка точно выиграет!" / "Следующий коммит точно задеплоится!"

5️⃣ Враги:
Дилер косится на твою систему / Баги смеются над твоим кодом

6️⃣ Профессиональное самоопредение:
"Я не лудоман, я стратег!" / "Я не отлаживаю, я проектирую!"

7️⃣ Финальная стадия:
"Последний раунд и ухожу" / "Последний баг и иду спать"

Вывод? Не важно, где ты теряешь время — за игровым столом или в IDE. Главное — сохранять вайб и верить в свою 'стратегию'! 😎

P.S. Кто еще сегодня думал, что "на этот раз точно получится"? 🙋‍♂️
😁3
https://habr.com/ - 502 ?

Вот так новости

p.s. восстановилось примерно в 15:40 (но с фотками еще проблемы остались)
Слышали ведь про claude cowork позавчера? который работает только с claude max подпиской - на любой llm

Собственно, вчера китайцы выпустили исходники и написали как его заставить работать с minimax - тут

А еще новее - считай наш, уже выпустил для винды но уже с любой llm, даже локальной внутри lmstudio ))

#claude #cowork
1🔥31
Если вы еще не пробовали qwen в части вопросов по Qlik Sense - то самое время попробовать.
Кажется 31 декабря 2025 был у них последний релиз, который дал сильный буст в качестве ответов.
Попробуйте сами https://chat.qwenlm.ai/

@chernovdev
Z-ai представила GLM-Image — первую генеративную модель изображений в своей линейке

Основные особенности:
• 16 млрд параметров с гибридной архитектурой
• Авторегрессионный генератор (9 млрд) отвечает за семантическую структуру
• Диффузионный декодер (7 млрд) обеспечивает визуальные детали
• Поддержка text-to-image и image-to-image
• Высокая точность рендеринга текста благодаря Glyph Encoder
• Раздельное обучение с алгоритмом GRPO для разных модулей

Стоит так же написать и стоимость - $0.015 за 1 генерацию, по апи будет отдан url картинки которую можно будет скачать.

Модель показывает качество, сопоставимое с ведущими решениями на основе скрытой диффузии, с преимуществами в задачах генерации текста на изображениях и сценариях, требующих глубоких знаний.

Фото создано с помощью glm-image

curl --request POST \
--url https://api.z.ai/api/paas/v4/images/generations \
--header 'Authorization: Bearer <token>' \
--header 'Content-Type: application/json' \
--data '{
"model": "glm-image",
"prompt": "A cute little kitten sitting on a sunny windowsill, with the background of blue sky and white clouds.",
"size": "1280x1280"
}'




🤗 Hugging Face
🤖 ModelScope
3
🤖 Cursor провели кодовый марафон среди AI-агентов на недели и получили миллионы строк кода среднего качества

Cursor провёл эксперимент: можно ли масштабировать длительное автономное программирование, просто добавляя больше агентов? Оказалось — да, но с оговорками.

Что удалось навайбкодить в ходе эксперимента:
- Веб-браузер с нуля — 1М+ строк кода за ~неделю
- Миграция Cursor с Solid на React, - агенты работали 3 недели, +266K строк добавлено, удалено 193K.
- Эмулятор Windows 7 — 14.6K коммитов, 1.2М строк (в процессе)
- Клон Excel — 12K коммитов, 1.6М строк (в процессе)

Плоская структура с равнозначными агентами провалилась, - 20 агентов работали как 2-3, остальные ждали разблокировки очереди.

Без иерархии агенты избегали сложных задач и делали только безопасные мелкие правки.
Когда у общества нет цветовой дифференциации штанов, то нет цели! А когда нет цели — нет будущего!


Решение — разделение ролей:
- Планировщики — исследуют код, создают задачи, могут порождать суб-планировщиков
- Воркеры, - пилят свою задачу до конца, потом пушат в репу
- Судьи, - решают, продолжать или повторять цикл

Главный инсайт по моделям:
Codex
отменяем. GPT-5.2 оказался значительно лучше для длительной автономной работы,- лучше держит фокус, точнее следует инструкциям, не дрейфует.
Opus 4.5 склонен останавливаться раньше и срезать углы, быстро возвращая управление человеку.

Интересно, что GPT-5.2 оказался лучшим планировщиком, чем GPT-5.1-codex, хотя последний специально обучен написанию кода.

Вайб-косяки:
На Hacker News заметили — браузер не компилируется у внешних пользователей, CI не проходит.
PR миграции Solid→React назвали «невозможным для ревью». Код описывают как «крайне хрупкий».

Ключевые выводы Cursor:
- Промпты важнее архитектуры и выбора модели
- Упрощение системы часто давало лучшие результаты
- Периодические «свежие старты» обязательны чтобы не сваливаться в дрейф
- Под разные роли лучше использовать разные модели

#Cursor #агенты #GPT #Opus #AgenticCoding
———
@tsingular
🔥4
Опять про зайку
Немного математики - если вы еще думаете,
Я конечно не настаиваю, но по моей реф ссылке получите скидку дополнительную 10%

https://z.ai/subscribe?ic=LHVANAIHDE

Смотрим:
• я за 6 дней сжег 280 млн токенов, у меня годовой тариф за 288 баксов, условно я сейчас в диапазоне 1 бакс за 1 млн токенов
• зайка дает вам на max-тарифе примерно 2400 запросов на 5 часов и счетчик обнуляется
• вы можете писать код со скоростью - 8 запросов в минуту!
• у зайки почти все модели могут работать потоками, glm47 можно сейчас запускать в 3 "окна" одновременно!
• у вас куча других моделей у которых тоже есть свои потоки
• если строите агентскую систему - выдавайте разным моделям разные роли и пилим пайплан нон-стоп разработки
• есть 10 потоков для распознавания изображений! glm46v
• сейчас код пишет на уровне gpt52/sonet45
• ожидаем в феврале модель glm50 - которая должна стать еще сильнее


@chernovdev
🔥2
Конец эпохи ручного труда: как Vibe Coding переписывает DNS индустрии

Разрыв между идеей и рабочим продуктом исчезает. ИИ перестал быть просто калькулятором кода, превратившись в полноценного "со-разработчика". Однако за фасадом простоты скрывается новый уровень сложности, доступный лишь тем, кто понимает механику происходящего.

Вот 5 инсайтов из недр r/vibecoding и Hacker News:

1. Программирование на интуиции
Концепция vibe-coding на r/vibecoding ставит во главу угла не синтаксис, а намерение. Вы описываете "вайб" желаемого фичи, а AI agents через цепочки sub-agent команд сами генерируют app. Скилл сеньора теперь — это умение говорить с машиной, а не писать code.

2. Автономность Claude-code и Cursor
Инструменты вроде claude-code используют рекурсивный цикл: ИИ пишет код, тестирует его, ловит bug и патчит сам. Ваша задача — только review итогового результата. Это качественный скачок в automation разработки.

3. Разрыв между генерацией и инфраструктурой
Пока r/vibecoding учится瞬间 создавать webapp, r/devops напоминает о суровой реальности. Kubernetes и CI/CD не прощают халатности. Сгенерированный код нужно развернуть. Без глубоких знаний infrastructure ваш "вайб" не взлетит.

4. Экономика Indie-hacker
Скорость ship стала критическим фактором. Solo-founder использует prompt инженерию для выпуска project за один вечер. Те, кто игнорирует LLM в стэке, выбывают из гонки за revenue.

5. Проблема безопасности
Массовое использование generative кода рождает новые уязвимости. Security сообщество на Hacker News бьет тревогу: агенты могут вшить backdoor в open-source библиотеку. Доверяй, но проверяй. Vibe coding не отменяет ответственность.

Вердикт: Инженер будущего не тот, кто помнит все методы API, а тот, кто умеет оркестрировать AI. Прием?

Источник
@chernovdev
2
Запись экрана 2026-01-17 в 23.56.32.mov
3.5 MB
Очень и очень годное решение для многих вопросов - https://github.com/vakovalskii/LocalDesk

• впихнул туда работу через зайку
• прикрутил веб-поиск зайки
• прикрутил читалку страниц от зайки

Работает!

p.s. все правка исходного проекта у меня сделаны локально без пуша в гит
p.p.s. допиливал эту штуку прямо внутри ее же чата )
🔥2
Чернов пишет
Кинул pr с доработками для зайки https://github.com/vakovalskii/LocalDesk/pull/1
В общем как эта штука работает)))
Новая фича - рендеринг таблиц из markdown в нормальные таблицы в аутпуте
🔥31