Derp Learning – Telegram
Derp Learning
13.1K subscribers
3.18K photos
916 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
Forwarded from Denis Sexy IT 🤖
Наткнулся тут на офигенное видео про космическую угрозу, о которой еще не слышал. Коротко не получится, поэтому вот:

В 2013 чувак спидраннер играл в Super Mario 64 и внезапно обнаружил «баг» — Марио телепортировался так высоко, что значительно сократило время прохождения уровня (вот здесь видео). Повторить это пытались даже за денежную награду, но ни у кого не получалось. Лишь через 8 лет пришли к выводу, что сбой произошел из-за ионизирующей частицы из космоса (🥲), которая изменила один конкретный бит в байте, отвечающего за месторасположение персонажа и все это попало на видео (где Марио и где космос).

В 2003 году на выборах в Бельгии, во многих регионах проводилось электронное голосование. Каждый избиратель вставлял магнитную карту в комп и делал выбор, таким образом информация дублировалась и на компьютере и на карте, которую опускали в ящик для голосования. На подсчёте голосов выявили проблему — один из кандидатов получил больше голосов, чем это возможно математически. Конечно эти магнитные карточки вынули и начали пересчитывать вручную голоса, что показало положительное отклонение аж на 4096 голосов.

Эксперты проверили весь код, но ошибок не нашли, всё работало без сбоев, что и указало экспертам на очередную «космическую атаку». Где-то внутри компьютера есть строка битов, которая отвечает за количество голосов, полученных кандидатом, и как только кто-то голосовал, физически внутри включались и выключались транзисторы (вкл — 1, выкл — 0, таким образом, например, путем включения/выключения транзисторов двоичный код 1100 даст 12 в десятичной системе). Ща буит мясо: Число 4096 это 2^12 и это 13-й бит в цепочке, до которого «дойти» физически было невозможно. В общем исследователи подозревают, что одна из заряженных космических частиц повлияла на 13-й бит, «перевернув» его с 0 на 1, что дало 4096 дополнительных голосов.

И вот еще один более мрачный пример из 2008 года когда самолёт, летевший на высоте 11 300 м, внезапно пошел вниз (200 м за 20 сек), что привело к травмам людей и повреждениям салона (непристегнутые люди телами пробивали полки над головой). Следователи установили причину в виде «нарушения в результате единичного события», в результате которого неверные данные поступили на внутренние приборы контроля высоты и скорости, тут опять же подозревают космическое влияние.

Из видео не совсем ясно, как борются с угрозой на обычных гражданских компьютерах, поэтому его название немного кликбейтное, но тем не менее весьма интересно как излучение альфа частицами влияет на оборудование в целом.

В полной статье и видео есть еще больше примеров, в общем рекомендую.

Теперь вы знаете, что очередной BSOD мог реально произойти из-за космического вмешательства, а вы грешили на Microsoft 🌚

UPD Версия видео на русском:
https://youtu.be/jOTM9T59IX4
Forwarded from Neural Shit
Forwarded from Заработайте со мной 💰SCAM (Nikita (pronouns: Your Majesty) Kolmogorov)
Please open Telegram to view this post
VIEW IN TELEGRAM
Пока все носятся с Zero-Shot CLIP+<insert any gan here>, я решил поковырять очередную итерацию моделей на основе стохастических дифференциальных уравнений.

Это те, которые итеративно генерят картинки из шума, не используя принцип состязательности. По четкости результата уже давно близко к GAN, но реалистичность оставляла желать лучшего.

Сейчас же совершенно другой уровень. Подобного результата на том же StyleGAN2 можно было добиться через недельку на колабе, хотя там и косоглазия было поменьше :D
Но это результат всего за полдня (слева) и за сутки (справа). Посмотрим, что будет дальше.

Исходник: Git
Как вы могли догадаться, экспериментирую я не просто так ;)

Суть в том, что вышеупомянутые модели генерируют изображение, итеративно убирая шум (на картинке - справа налево)

Если взять модель, обученную на лицах, и на одном из ранних шумных этапов подложить ей рисунок, предварительно добавив на него шум, то модель восстановит из рисунка фото. Либо можно дорисовать на фото усы и восстановить фото с усами :) Или раскрасить Ч\Б, или дорисовать удаленный фрагмент изображения. Применений море! Минус - долгая генерация картинок, т.к. происходит не за 1 проход, а за пару тысяч.

Примеры с генерацией из скетчей, редактированием лиц - https://github.com/ermongroup/SDEdit

Такой вот незамысловатый перенос стиля "в лоб". Регулируя количество шума и этап подачи изображения, можно регулировать силу эффекта. Вечерком вернусь с результатами!
This media is not supported in your browser
VIEW IN TELEGRAM
Стайл из фото в картинку, с разной силой и масштабом. Обучаем модель генерить нужный стиль из шума и подаем фото с нужным количеством шума :D

На основе "Score-Based Generative Modeling through Stochastic Differential Equations"
Git
Forwarded from Denis Sexy IT 🤖
В продолжение к нейронке с карикатурами
Forwarded from Dev Meme / devmeme
Гугол продолжает снижать кол-во одновременных сессий в colab pro. Теперь доступна только одна. Штош, тесла с алиэкспресса, настало твое время!
Случайно всковырнул deep style, которому уже 4 года.

Это тот, который тут юзается - https://deepdreamgenerator.com/#gallery
и у одного модного тиктокера - https://www.tiktok.com/@rodrigoperezestrada?lang=ru-RU

Колаб ннада?)
Признайтесь, мы все знали, к чему это приведет.
This media is not supported in your browser
VIEW IN TELEGRAM
Запилил колаб со свежей сеткой LiveSpeechPortraits
Конвертит аудио в фотореалистичное видео.

В отличие от, например, first order model, здесь вместо морфинга сначала из аудио генерятся фичи лица и положение головы, а из них уже с помощью старой доброй pix2pix генерятся кадры видео.
В принципе, как обучать, тоже понятно: из аудио в фичи лица - 1 раз для каждого языка, из фич в кадры - для каждого лица.

Авторы выложили модели для 5 персонажей и английского языка, но и на русском выглядит весьма забавно.
🌎 Сайт 🐈 Гитхаб 📝 Пдфка с докладом
📒Колаб тут
#колаб #colab
Forwarded from vc.ru
OpenAI создала модель ИИ, которая генерирует выжимки из книг — сначала делит на разделы и делает их пересказ, а затем объединяет в финальный текст.

Например, «Алису в Стране чудес» получилось сократить с 26 тысяч слов до 136

https://vc.ru/ml/297407
Forwarded from Neural Shit
Киберпанк, который мы заслужили
На случай важных переговоров с шаманами.
Media is too big
VIEW IN TELEGRAM
Простити.

Сделать самим - колаб тут
Кстати, видео тоже можно загружать в качестве источника звука.
Ааааа! Немец закрыл хомяка в клетке, подключенной к аккаунту на криптобирже: пробегая через один туннель, хомяк автоматически продает криптовалют на 20 евро, через другой — наоборот, покупает. За три месяца портфолио хомяка выросло на 29%.

Красивый перфоманс! Или инсталляция, я пока не понял.
This media is not supported in your browser
VIEW IN TELEGRAM
Не выдержала душа поэта :D
p.s. если честно, Обама не смог нормально выговорить свое имя. Отныне отговорки, что модель была обучена на англ. языке и поэтому с русским справляется неоч, больше не принимаются.
💐🤖 Новая SOTA на ImageNet: CoAtNet. Свадьба свертки и трансформера

Ресерчеры из Google Research, Brain Team создали архитектуру CoAtNet (depthwise Convolution and self-Attention Network) и выпустили пейпер с чудным названием: Marrying Convolution and Attention for All Data Sizes.

Проблема была в том, что огромные трансформеры, которые бьют SOTA на ImageNet, раскрывают свой потенциал на огромных датасетах (e.g.: ViT Huge на JFT-300M, 88.56% top-1), но не могут генерализировать знания и на обычном ImageNet (1.28M изображений), и даже на ImageNet-21 K (12.7M)

CoAtNet же показывает отличное ImageNet top-1 accuracy на всех претрейнах (и даже на самом ImageNet):
▪️ 86.00% - ImageNet
▪️ 88.56% - ImageNet-21 K
▪️ 90.88% - JFT-300M | SOTA 🏆

🤖 Архитектура проста: за residual блоками depthwise сверток следуют блоки residual multi-head relative attention. Генерализации добиваются возвращая сверку, обладающую известным inductive bias для изображений: трансляционной эквивалентностью фичей.

📰 paper 💻 кода нет