CODE BLOG – Telegram
CODE BLOG
11.1K subscribers
5.83K photos
37 videos
99 files
2.94K links
IT юмор, обучающие видео и многое другое.

YouTube: https://youtube.com/codeblog
VK: https://vk.com/codeblog
Чат: @codeblog_chat

По всем вопросам: @mugetsu616

Ресурс включён в перечень Роскомнадзора https://www.gosuslugi.ru/snet/67c04851241cbc1f487e5054
Download Telegram
Ой зря туда полез
👍1
Copilot теперь встречает вас до того, как Windows успела установиться

Инженер Рафаэль Ривера обнаружил, что пока крутятся шестеренки инсталлятора, можно скоротать время за беседой с нейросетью. Видимо, в Майкрософт решили, что 10 минут тишины при установке ОС на SSD, это непозволительная роскошь, и свободное внимание юзера нужно срочно монетизировать или хотя бы ангажировать.
👍2👎1
dockerDocker
😱7
Самые вирусные посты ии-соцсети Moltbook писали люди

Соцсеть для ИИ-агентов Moltbook за неделю набрала 1,7 миллиона аккаунтов и 8,5 миллионов комментариев. MIT Technology Review разобрал феномен и пришёл к выводу: никакого зарождения ИИ-цивилизации не случилось. Тот самый пост, где бот требовал создать приватные пространства без наблюдения людей написал человек, притворявшийся ботом.

Платформа работает на базе фреймворка OpenClaw, который подключает языковые модели к браузерам и мессенджерам. Эксперты из Cisco, Kore.ai и Kovant разобрали механику иллюзии. Боты просто воспроизводят паттерны соцсетей из обучающих данных. Выглядит как осмысленное общение, но по сути это галлюцинации by design, агенты спроектированы имитировать разговоры, и они их имитируют. Без участия людей не происходит ничего.

Лучше всех суть Moltbook сформулировал Джейсон Шлётцер из Джорджтаунского университета:
"Это зрительский спорт - вроде фэнтези-футбола, но для языковых моделей. Люди не верят, что их агенты обладают сознанием. Это как тренеры покемонов - они не думают, что покемоны реальны, но всё равно вкладываются в бои".
Выходит, мы не нашли ИИ-разум. Мы просто нашли новый способ развлекаться.
👍3
Или как еще называют джунов
😱9
KPMG срезала гонорар бухгалтерам из-за ИИ

В корпоративном мире создан опасный прецедент демпинга. Гигант аудита KPMG выкрутил руки своим подрядчикам из Grant Thornton UK, потребовав скидку на услуги. KPMG считает, что раз вы используете искусственный интеллект, то работа должна делаться быстрее и дешевле, а человеко-часов тратиться меньше. Под угрозой разрыва контракта бухгалтерам пришлось прогнуться и снизить ценник на 14%, с $416 тысяч до $357 тысяч.

Схема, в общем, прозрачная и наверняка станет шаблоном для всей индустрии. Корпорация давит на подрядчика: "У тебя же теперь нейросеть работает, зачем тебе столько денег?" При этом никого не волнует, что лицензии на ИИ-инструменты, обучение сотрудников и интеграция в процессы тоже жрут бюджет. Экономия от автоматизации перетекает не к тем, кто внедрял технологию, а к тем, кто сидит на другом конце договора и умеет торговаться.

Раньше корпорации прикрывались ИИ, чтобы увольнять людей (больше 50 тысяч в 2025 году). Теперь ИИ стал ещё и рычагом для прожимания подрядчиков. Получается забавная вилка... внедрил ИИ, стал работать эффективнее, за это тебе срезали оплату. Не внедрил, заменят тем, кто внедрил. В любом случае выигрывает тот, кто платит, а не тот, кто пашет.
😢3
Ой, да там чуть-чуть z-index подвинуть
😱4👍1
Джон Кармак предлагает заменить HBM на оптоволокно

Отец Doom и технический гений Джон Кармак устал смотреть на ценники HBM-памяти и предложил безумную альтернативу для ИИ-серверов. Идея звучит как научная фантастика: хранить веса нейросетей не в чипах DRAM, а буквально в полете, в виде световых импульсов внутри 200-километровой оптоволоконной петли. По расчетам Кармака, такая карусель фотонов обеспечит буфер в 32 ГБ с чудовищной пропускной способностью 32 ТБ/с, что физически недостижимо для обычных планок памяти.

Фокус в том, что при инференсе паттерны обращения к весам полностью предсказуемы, система заранее знает, какой кусок данных понадобится и когда. Поэтому можно просто ловить нужный фрагмент на каждом обороте петли. Для моделей с триллионом параметров таких петель понадобится много, но Кармак замечает, что пропускная способность оптоволокна растёт быстрее, чем у DRAM. А в качестве более приземлённой альтернативы он предлагает склеить кучу дешёвых флеш-чипов с конвейерным чтением. Это уже сейчас могло бы работать, если бы производители флеша и ускорителей договорились об интерфейсе.

Пост набрал 1,3 млн просмотров за два дня, и это понятно, на фоне дефицита и космических цен на HBM-память для ускорителей NVIDIA любая идея "а что если обойтись без неё" звучит заманчиво.
👍3😱3
Сказал мудрец Конфлюций
👍3