Марат пишет про науку (в основном) – Telegram
Марат пишет про науку (в основном)
820 subscribers
133 photos
14 videos
1 file
756 links
Кидаю сюда ссылки на свои тексты, рассуждаю про физику, искусственный интеллект и их связь с видеоиграми
@zumrus
Download Telegram
Завершая тему сегодняшнего юбиляра.

В геймдизайне есть такое понятие как «повествование через окружение». Это когда игра рассказывает игроку о происходящих событий не с помощью кат-сцен (видеороликов), записок, дневников и всего такого, а с помощью виртуальной среды, в которой он путешествует. Отличительной особенностью такого подхода является то, что количество информации, которую сможет усвоить игрок, зависит по большей части от его внимательности, пытливости и дотошности. К Half-Life написанное имеет непосредственное отношение, поскольку данная игра серьёзно популяризировала этот приём.

Физические теории, скрытые в основе сюжета, или элементы окружения, которые их обслуживают — это один из инструментов повествования через окружение. Это крепкий орешек в том смысле, что для их считывания требуется быть в лучшем случае хорошо эрудированным, а в худшем — иметь степень по физике. Это одна из причин, почему мне так нравится писать об этом тексты — я хочу, чтобы как можно большее число игроков могло считать этот слой геймдизайна и по достоинству оценить труд разработчиков.

К счастью, я такой не один.

Бывалые подписчики моего канала знают, что я редко приношу сюда чужие тексты, но сегодня я решил сделать исключение. Один из пользователей сайта DTF потратил кучу времени, чтобы пристально изучить оборудование, которое игрок встречает в Лабораторном комплексе Чёрная Меза в оригинальной игре. Если меня интересовали исключительно доски с научным содержанием (да и то в ремейке), то он нашёл там радиационные дозиметры, генераторы, охладительные системы и так далее и оценил их правдоподобность. Кроме того, он подробно исследовал архитектуру локаций и скрипты отдельных её элементов.

Конечно, я не согласен с автором касательно того, как работает антимасс-спектрометр, но это ничуть не мешает мне рекомендовать его монументальный труд
👍94🍾3🤯2
В 2016 году одно из подразделений Miсrosoft создало открытого чат-бота для Твиттера Tay, который учился на разговорах с пользователями. Менее, чем за сутки бот нахватался расистских установок, из-за чего разработчики его спешно отключили.

Этот пример иллюстрирует то, как важно защищать свои модели от искажений, предубеждений и предрассудков, отпуская её в «свободное плавание». Но даже в тепличных лабораторных условиях машинное обучение может потерять непредвзятость: дискриминационные установки могут просочиться через артефакты в обучающей выборке. Их источником может стать даже язык, на котором обучается языковая модель!

Специалисты сравнительно недавно обратили внимание на эту проблему, но уже придумали несколько методов для борьбы с ней. Все они, так или иначе, сказываются на точности работы модели. Ко всему прочему, от современных моделей всё чаще требуется умение избегать неоднозначностей.

Команда российских и австралийских исследователей попыталась разобраться в том, насколько сильно мешают друг другу методы снижения предвзятости и неоднозначности, и можно ли найти компромисс между надёжностью, справедливостью и производительностью модели. Подробнее об этой работе читайте в свежем блоге на сайте AIRI
😈321👍1🔥1💅1
Магнитные запоминающие устройства — или, по-простому, жесткие диски — состоят из крошечных участков магнитного материала. Их намагничивают вверх или вниз, кодируя один бит информации. Если бы удалось создать материал, который надёжно удерживал бы большее число магнитных состояний, ёмкость жёстких дисков выросла бы многократно.

Небольшой шаг в этом направлении сделала группа российских и французских физиков. Материал, который они изучали, устойчиво поддерживал 12 различных намагниченностей. Правда, для этого потребовались очень низкие температуры. Подробности в свежем пресс-релизе
👍73
Физики и исследования искусственного интеллекта могут соприкасаться не только в области физически информированного машинного обучения, но и своими скандалами.

Совсем недавно я рассказывал вам о том, что из престижнейшого журнала Nature отозвали уже вторую статью американского физика Ранги Диаса, группа которого сообщала о достижении комнатной сверхпроводимости в гидридах. На днях на N + 1 вышел очень интересный разбор этой истории и их последствий.

Диас, понятное дело, всё отрицает. И неспроста: это ставит под угрозу его стартап Unearthly Materials, привлёкший уже более 16,5 миллионов долларов инвестиций. Цель стартапа — углубиться в поиски материалов, способных сверхпроводить при не экстремальных условиях. А делать это планируется с помощью машинного обучения.

Последний факт, по-видимому, обуславливает то, что среди инвесторов числится Сэм Альтман, генеральный директор OpenAI, драма с увольнением которого закончилась буквально недавно. По одной из версий нецелевая трата средств была одной из причин этого скандала
😁622😱1
Я рос в небольшом провинциальном городе, в котором телевизор был единственным каналом поступления культуры из внешнего мира. Мир очень чётко делился на «здесь» и «там», то есть по ту сторону экрана. Встреча с какой-нибудь селебой — или, как тогда говорили, «человеком из телевизора» — считалась большой удачей, даже если это не московская, а местная знаменитость. При наличии фотоаппарата, старались сфотографировать их, а не себя на их фоне, как принято сейчас.

Сегодня интернет размыл эту границу. Ещё сильнее её размыло знание английского языка, которое позволяет достучаться до людей «оттуда» с помощью твиттера или реддита. И это, оказывается, очень просто.

Я ощутил эту простую вещь, когда начал работать над разборами физики в легендарных играх и стучаться в электронные ящики студий и аккаунты разработчиков. Я уже рассказывал ранее, как мне улыбнулась удача: ведущий геймдизайнер Black Mesa эксклюзивно поделился со мной исходниками текстур, которые мир до этого не видел.

Но при всём моем уважении к студии, которая делала эту игру, они — лёгкая «добыча», потому как это инди-разработчики. То ли дело легендарные Remedy Entertainment, которым я писал во время работы над текстами про Control и Quantum Break. Увы, ответов тогда я не получил и делал тексты без них.

После последней публикации (это был Quantum Break) я решил, что русскоязычность текста — это преграда для широчайшего круга читателей и запустил тред в X с кратким пересказом разбора на английском, тегнув аккаунт Remedy. И вот, спустя несколько дней, один из твиттов прокомментировал сценарист Remedy Микко Рауталахти!

Если вы играли в Quantum Break, и вам, как и мне, интересно, как устроен её мир, обязательно почитайте свежий блог на N + 1, где я пересказываю, что поведал нам Рауталахти. Например, он раскрыл физический смысл одного важного визуального элемента Quantum Break — спустя 7 лет после релиза!
8🔥6🍾43👍2🤯1
Одна из традиционных областей, где сходятся физика и машинное обучение — это физика высоких энергий. Сегодня она развивается экстенсивно: точность эксперимента — а, следовательно, его способность определять, какая из теорий верна, а какая нет — растёт по мере увеличения данных о столкновениях частиц. Этот путь ещё полон перспектив, в отличие, например, от увеличения энергий сталкиваемых частиц, где ученые уже близки к возможному пределу.

В этом направлении работают физики и инженеры на Большом адронном коллайдере, в частности, сотрудники коллаборации ALICE, которые исследуют столкновение самых тяжелых стабильных частиц — ядер свинца. Благодаря модернизации своего оборудования, важной частью которой стало обновление системы обработки данных, физики научились собирать данные о процессах в камере со скоростью до 770 гигабайт в секунду.

В результате за пять недель работы детектор ALICE узнал о таких столкновениях в 40 раз больше, чем за восемь предыдущих лет работы. Это, в свою очередь, поможет точнее сроить модели кварк-глюонной плазмы. Подробности — в пресс-релизе коллаборации и в её коротком пересказе
🔥11
На лекциях я часто рассказываю про физический интеллект или, если угодно, физическую интуицию. Это способность нашего мозга выучивать законы, по которым двигаются и существуют тела и явления вокруг нас. По большей части это происходит в детстве, когда ребёнок экспериментирует с окружением: швыряет игрушки (и не только), стучит по поверхностям, играет с водой. Эту идею, кстати, сейчас активно пытаются воспроизвести для агента, обучающегося без учителя в виртуальной среде, см, например ИИ-физика от MIT.

Но есть интересная особенность: всё, чему учится мозг человека — это классическая физика, то есть механика, гидро- и аэродинамика, акустика, в меньшей степени электромагнетизм и оптика. А вот квантовая механика, теория относительности или другие, более фундаментальные теории, физическому интеллекту напрямую недоступны, поскольку у нас нет соответствующих органов чувств. Единственный способ приобрести такую интуицию — математика и прилежное решение с её помощью конкретных задач.

И всё же современные проблемы требуют современных решений. С того момента, когда наши компьютеры стали достаточно мощными, у физиков появилась возможность создавать симуляции, доступными каждому. В таких симуляциях уже можно преодолеть ограничения нашего тела и попробовать поиграться с недоступными ранее физическими законами, хоть и виртуально.

В случае с микромиром появился отдельный термин: квантовые игры, который активно исследуют финские ученые. Они составили список из почти 300 различных видеоигр, которые каким либо образом связаны с квантовой механикой: либо духовно или идейно (например, там есть Quantum Break, который я недавно разбирал), либо на уровне игровых механик.

Это большое число (причём, там далеко не всё — я гарантирую это), и во все поиграть невозможно. Поэтому, если у вас есть опыт игр во что-то из этого списка, буду рад увидеть в комментариях небольшой обзор
🔥12👨‍💻4
Продолжая предыдущий пост…

Из всех квантовых игр для развития квантовой интуиции наиболее подходят те, что используют законы квантовой механики в собственно механике игры. Из того, что я видел, наиболее интересно это реализовано в серии игр Quantum Moves.

С точки зрения жанровой классификации это головоломка, состоящая их последовательности уровней, прохождение которых оценивается по трёхзвездочной шкале — прямо как в Angry Birds. С последней серией Quantum Moves роднит и то, что во главу угла здесь поставлена физика, только теперь квантовая. Задача игрока — бережно перемещать атомы оптическим пинцетом, чтобы не «расплескать» их волновую функцию.

Игру разработали датские учёные, которые занимаются вопросами работы с атомами в оптических решетках — я часто писал о подобных исследованиях, пока работал в штате N + 1. Для них важно переносить атомы из точки A в точку B, во-первых, достаточно быстро, во-вторых, достаточно надёжно. Для того чтобы задать оптимальную программу работы оптического пинцета, её надо сначала рассчитать. Это можно попытаться сделать с помощью численных вычислений, алгоритмов машинного обучения, а можно — по принципу «бесконечных обезьян».

В данном случае в роли обезьян выступили несколько сотен игроков, которые перемещали атомы в виртуальной среде игры, пытаюсь выбить все звёздочки. По словам авторов, которые опубликовали об этом целую статью в журнале Nature, результат превзошёл машинную оптимизацию. К сожалению, авторы допустили ошибки в коде анализа, из-за чего статья была отозвана в 2020 году. Подробности исследования описаны в заметке на сайте энки.

Тем не менее, сама Quantum Moves остаётся блестящим примером того, как можно «потрогать» волновую функцию, чьё поведение задается численным решением динамического уравнения Шрёдингера. Например, волновая функция атома на первый взгляд напоминает жидкость, но чем больше с ней взаимодействуешь, тем отчётливее ощущается отличие.

К сожалению, сегодня поиграть в эту игру не так-то просто, хотя в 2016 году она была доступна на всех мобильных платформах и ПК. Пару лет назад её создатели выпустили сиквел, в который можно было поиграть онлайн по ссылке, но на момент написания статьи она, похоже, больше не поддерживается.

Тем не менее, первую часть всё еще можно установить на ПК или Андроид (ну и на iOS, если не гнушаетесь джейлбрейком), если найти установочные файлы. Я нарочно не прикладываю их к посту, чтобы не словить проблем с авторскими правами, но найти их в Интернете не составит труда — главное, опасайтесь вредоносного ПО.

Для тех же, кто не хочет возиться с установкой, прикладываю видео геймплея:
https://www.youtube.com/watch?v=p5rWZh7M0aY&ab_channel=ScienceAtHome
🔥8🆒5👍4
Изначально я создавал этот канал с целью держать в одном месте ссылки на тексты, которые пишу, снабжая их информативными подводками. Хотя впоследствии я стал разбавлять этот контент мимолётными мыслями и находками, первоначальный тип постов всё еще остаётся приоритетным — я часто использую его как раз для поиска написанного.

Вместе с тем, в последний месяц постов со ссылками на тексты было довольно мало, что создаёт ощущение, будто я перестал писать. На самом деле я заканчиваю большой цикл заметок, посвященный докладам, которые сделали ученые института AIRI на конференции NeurIPS. Это ежегодное мероприятие, которое проходит в декабре, считается довольно престижным в области машинного обучения и собирает важнейшие достижения в этой области. Тем приятнее, что институт там был представлен сразу несколькими докладами, пусть и дистанционно.

Конференция прошла на прошлой неделе, а значит совсем скоро я начну публиковать этот цикл и рассказывать о нём здесь. Stay tuned!
👍20🔥62
Итак, начну я с очень интересной работы, сделанной учеными из нескольких российских институтов. Она посвящена такой важной проблеме, как создание инструмента, способного отличить человеческое творчество от машинного, а конкретно, тексты.

Наверняка среди подписчиков этого канала большинство иногда использует ChatGPT или его аналог для рутинной работы с текстами. Задействовать большую языковую модель для написания диплома или курсовой заманчиво, что стало головной болью для преподавателей и ВУЗов, которые только-только привыкли к работе антиплагиата. Проблема волнует также и научные издательства — при оправке статьи в некоторые журналы требуется указывать, помогала ли тебе нейросеть.

Необходимость в создании ии-дискриминаторов стала ясна практически сразу же, как большие языковые модели продемонстрировали свои успехи. Так, например, Open AI — создатели ChatGPT, — осознавая социальные риски, которые создаёт их детище, в январе 2023 года предоставили общий доступ к инструменту AI text classifier, который должен был обнаруживать искусственно-сгенерированные тексты. Уже через полгода его авторы закрыли к нему доступ, сославшись на низкую точность, о чём сообщает заглушка на их сайте. В конечном итоге в среде ML-специалистов стали раздаваться голоса о невозможности создания такого дискриминатора.

Оказалось, что всё не так плохо. Помощью пришла со стороны высшей математики и топологического анализа данных. Если очень упрощённо: текстовые данные можно представить себе в виде точек в некотором многомерном пространстве. Можно предположить, что данные сгруппированы на некоторой сложной поверхности в нём. Проблема в том, что такая поверхность может обладать фрактальными признаками, поэтому для её исследования требуется сложная математика.

Авторы нового исследования разработали метод определения фрактальной размерности для такой поверхности (исследователи назвали её внутренней размерностью), который опирается на концепцию устойчивых гомологий. Подробности не так важны: главное, что эта размерность отличается для человеческого и машинного текстов с высокой степенью достоверности, что можно использовать на практике. Примечательно, что внутренние размерности различны для текстов на разных языках — от 7 ± 1 для китайского до 10 ± 1 для итальянского, — но надёжная дискриминация достигается во всех из них.

Подробнее об этом исследовании я рассказываю в блоге на сайте AIRI. Научная статья с деталями исследования находится в открытом доступе
👍106🔥3
Сегодня поговорим о другом нейросетевом инструменте, с двух ног влетевшем в повседневность — рисовалках. Какой бы из них вы не пользовались: MidJourney, Kandinsky, Stable Diffusion или другой — под капотом у них один и тот же процесс — обратная диффузия данных.

Идея очень проста: вы сначала учите модель тому, как чёткое изображение превращается в шум в ходе нескольких актов размывания, а затем просите делать всё наоборот на произвольном шуме. Когда мы пытаемся описать этот процесс на языке статистики, мы говорим о превращении одного распределения вероятностей в другое. Через призму математики каждому распределению можно сопоставить точку в некотором пространстве, а процессу диффузии — перемещение или транспорт между ними.

Чтобы диффузионные модели работали лучше, учёные пытаются оптимизировать такой транспорт разными методами, например, добавляя ему стохастический характер. Оказалось, что в таком виде задача сводится к так называемой задаче о мосте Шрёдингера — поиску наиболее вероятного перехода между распределениями. Да, речь о том самом Эрвине Шрёдингере, который славится не только как отец-основатель квантовой механики, но и исследователь в области статистической физики.

Существует множество способов построить такой мост Шрёдингера, по большей части они эвристические (по сути, интуитивные), и их как-то надо сравнивать. В информатике и кибернетике для этого традиционно создаются бенчмарки — сравнительные тесты. В свежем блоге я рассказываю про создание такого бенчмарка для строительства мостов Шрёдингера группой специалистов из AIRI и Сколтеха
14👍5
Продолжаем тему оптимального транспорта, нужного для шустрой работы диффузионных моделей. Напомню, речь идёт о переходе от одного вероятностного распределения к другому. Этот путь ищется в математическом пространстве, которое эти распределения представляет.

В последние годы исследователи поняли, что поиску такого пути стоит добавить немного стохастичности — это позволяет получать сразу несколько изображений из одного шума с настраиваемым уровнем разнообразия. Добавление стохастичности происходит в форме энтропийной регуляризации формул, а сам подход получил название энтропийного оптимального транспорта.

Как я уже упоминал в прошлом посте, существующие реализации алгоритмов оптимального транспорта по большей части нестрогие и эвристичекие. Это же касается и их энтропийных модификаций, которые пытаются получить с помощью нейросетей. Из-за этого, например, такие методы оказываются неустойчивыми в некотором полезном диапазоне параметров регуляризации.

Эту проблему смогла бы решить более строгая математическая формулировка задачи. Именно такую формулировку смогли создать ученые из AIRI и Сколтеха, которые ранее создали бенчмарк для методов оптимального транспорта, совместно с коллегами из Вышки. Им удалось свести задачу к поиску седловой точки некоторого функционала, что даёт возможность применять теорию обобщённых функций и вариационное исчисление.

Подробности, как водится, в свежем блоге
👍7🤔32
И ещё одно исследование в области оптимального транспорта, представленное учёными из AIRI на NeurIPS 2023.

Как и всяким ML-моделям, диффузионным моделям нужно учиться. По-хорошему, для этого нужно скармливать ей парные выборки. Например, если мы хотим, чтобы модель удаляла шум с картинки, нам надо создать обучающие пары из нормальной и зашумленной версии одних и тех же изображений. Или если мы хотим, чтобы модель рисовала шаржи, надо снабдить её парами «фото-шарж».

Проблема здесь в том, что качественных парных данных чаще всего не хватает для хорошего обучения, и специалистам приходится выкручиваться. Про один из способов это сделать — доменную адаптацию с помощью трансферного обучения — я уже рассказывал.

Кроме того, учиться можно и на непарных выборках, и здесь помогает тот самый оптимальный транспорт, который способен связать разные домены (то есть типы изображений). Та же команда учёных из AIRI и Сколтеха, про которую я писал в предыдущих постах, предложила математическую формулировку для поиска теоретически наилучшего перевода домена с использованием непарных обучающих выборок, которая получила название экстремального транспорта. Новый метод исследователи опробовали на задаче стилизации, превратив сумки в обувь и знаменитостей в персонажей аниме.

Этому исследованию посвящён очередной текст на сайте AIRI
5👍3😁3
И снова поговорим про диффузионные модели. Что поделаешь — горячая тема нынче в области ИИ!

Итак, мы уже знаем, что в основе работы этих алгоритмов лежит пошаговое размывание информации. Например, если речь идёт о картинках, представленных с помощью двумерных массивов пикселей, то имеет место обычный блюринг. А вот как именно происходит это размывание, вопрос интересный.

Традиционно для этого используют свёртку с распределением Гаусса. С одной стороны, точно так же размываются очертания, которые мгновенье назад могла принимать упорядоченная структура из молекул в какой-либо среде, например, струйка сиропа в чае. С другой стороны, использование такой формулы позволяет сформулировать задачу на языке цепей Маркова — это когда последовательность случайных событий «помнит» только свой последний шаг.

Проблема тут в том, что для некоторых типов данных такое размытие не очень подходит. Например, если они заданы на сфере или в пределах какой-то сложной фигуры. Для них нужны другие распределения, но пока не существует общей формулировки, которая бы подходила для произвольного их типа.

Важный шаг в эту сторону сделала команда учёных из Европы и России, среди которых сотрудники AIRI. Они пожертвовали самой важной фишкой — марковостью, и им удалось обобщить алгоритм диффузионных моделей до целого семейства распределений — экспоненциального семейства, к которому относятся распределения Дирихле, Уишарта, бета-распределения и многие другие.

За подробностями приглашаю в разбор, опубликованный в блоге Института
5👍4
Следующее исследование посвящено комбинации двух могучих методов: глубоких ансамблей и трансферного обучения.

Глубокие ансамбли — это несколько нейросетей, которые обучаются независимо для одной задачи с различных, случайным образом распределенных стартовых условий. В результате предсказания таких сетей немного отличаются, но их усреднение обычно ближе к оптимальному ответу, чем ответ каждой сети по отдельности — фактически, они исправляют друг друга.

Про трансферное обучение я уже рассказывал ранее. Если вкратце, оно решает проблему дефицита качественных и специфичных датасетов. Для этого обучение нейросети делится на предобучение, когда ей скармливается большой, но общий массив данных, и дообучение на малом, но специфичном датасете.

Авторы нового исследования попытались скомбинировать оба этих подхода, предложив новую архитектуру, которая даёт существенные преимущества по сравнению с предыдущими попытками. Рассказываю об этом в свежем блоге
👍4
Я не мастер предпразничного SMM и не умею грамотно создавать предновогоднее настроение. Вместо этого я напомню вам, как помогал N + 1 создавать новогодние материалы, когда работал там на постоянных условиях.

На январских праздниках в 2022 году вышла "Лаба по кулинарии" — по сути, краткий пересказ нескольких новостей издания по теме науки еды, выполненный в духе поваренной книги.
https://nplus1.ru/material/2022/01/05/science-cook

Спустя год, в первых числах 2023 года, увидел свет самый странный отчёт о лабораторной работе, который я когда либо делал. Вооружившись кафедральными приборами, дёшевым смартфоном и толикой безумия, я подверг испытаниям популярное новогоднее блюдо — холодец.
https://nplus1.ru/material/2023/01/03/jelly-physics/

На этот год тоже планировался тематический материал, но, увы, обстоятельства сложились иначе.

Что ж, желаю, чтобы в следующем году наши планы были более жизнеспособными!
🔥11🍾84
После долгих новогодних каникул продолжаю рассказывать о работах исследователей из AIRI, попавших на самую крутую конфу по машинному обучению NeurIPS 2023.

Сегодня поговорим о такой вещи как самообучение. Это новый подход в ML, появившийся как попытка создать учителя для нейросети там, где его нет. Обучение с учителем — это уже традиционный способ натренировать сетку, скармливая ей данные, в которых помечены правильные ответы. Метить данные должен человек, что по меркам индустрии считается дорогим удовольствием. Оказалось, однако, что сама структура данных может нести какую-никакую информацию, которую можно использовать для автоматической разметки, по крайней мере предварительной.

Метод молодой — ему буквально пара лет всего. Поэтому исследователи по большей части развивают его эвристически, или, проще говоря, методом научного тыка. Вместо этого небольшая команда учёных под руководством нового CEO AIRI Ивана Оселедца пытается подвести под самообучение хорошую математическую базу. В ходе исследований они выяснили, что существующие методы самообучения, по сути, решают задачу восполнения низкоранговой матрицы. Этот факт поможет оптимизировать их и избежать потенциальных ошибок в будущем.

Текст с разъяснениями вышел сегодня в блоге AIRI, а для любителей первоисточников в открытом доступе есть статья с исследованием
👍6🔥2🤯1
Заключительная часть цикла про исследования AIRI, представленные на NeurIPS.

Сегодня поговорим про оптимизацию. Это слово применительно к машинному обучению и Data Science имеет чёткую математическую расшифровку: найти минимум (или, что эквивалентно, максимум) некоторой функции произвольной размерности. Уже в XIX веке был предложен простой способ сделать это — градиентный спуск.

Его принцип работы можно описать алгоритмом, который будет использовать человек, ищущий путь вниз в холмах в тумане: смотрим, куда направлен наклон и идём в этом направлении. В данном случае направление наклона определяет вектор из частных производных функции — тот самый градиент.

Проблема, однако, в том, что таким путём можно спуститься не в самую нижнюю точку рельефа (застрять в локальном минимуме), а при очень большой размерности (а не два, как в примере с холмами) вычисления становятся очень тяжёлыми. Наконец, некоторые функции вообще не дифференцируемые. Всё это часто встречается при работе с Big Data и представляет настоящую головную боль.

Поэтому активно развивают альтернативные — безградиентные — пути оптимизации. В новом исследовании команда из AIRI и Сколтеха развила метод, который основан на разложении многоразмерного тензора в «поезд» из низкоранговых тензоров (о таком разложении я уже рассказывал).

Подробности, как всегда, в блоге
4👍3🔥2
Я опять немного забросил канал из-за загруженности, но всё же возвращаюсь в эфир.

Начну я с чего-нибудь лёгкого, а именно с пинания учебников по общей физики за авторством А.Н. Матвеева. Я уже критиковал его ошибку в учебнике по атомке: не слишком серьёзную, но всё же мешающую лучшему понимаю. В этот же раз ошибка спряталась в книге по оптике — и она более смешная и нелепая.

В первом издании этого учебника от 1985 года на странице 310 нам рассказывают о том, что при распространении света по однородной среде его интенсивность меняется по экспоненциальному закону. Весь мир знает это как закон Бугера (или, полнее, Бугера — Ламберта — Бера, хотя есть нюансы). Но читатели Матвеева рискуют запомнить его как закон Бургера (см скрин).

Не знаю, что это: перестроечные грёзы по ещё не открывшемуся Макдональдсу или банальная невнимательность, но это точно не опечатка — котлета между булками встречается в учебнике несколько раз. А ещё Бюргер — это «горожанин» с немецкого, а потому часто встречающаяся у немцев фамилия. Возможно, из-за этого автор не заметил подвоха.

Что ж, спасибо, что не закон Фюрера.

P.S. Вполне вероятно, что в поздних изданиях этой ошибки больше нет, но в КФУ нет к ним доступа, а в электронном виде существует только первое издание 1985 года. Если у вас есть возможность открыть свежую версию этой книги, напишите в комментариях, есть там бургеры или нет.
😁14👍2😱2🤡21
Ну вот, теперь хочется хлопнуть бургер
💯12😁72🍾1
В сердце большинства современных переводчиков, например, Google Translate, лежат так называемые Sequence-to-sequence модели или, сокращённо, seq2seq. Они принимают на вход одну последовательность символов и возвращают другую. Эта же начинка наполняет алгоритмы чат-ботов и голосовых помощников вроде Siri, Alexa или Google Assistant.

Как и в других областях машинного обучения, при генерации текста модели могут быть сбиты с толку определенными входным данными, например, текстом с опечатками. По хорошему, в них надо закладывать возможность отказаться от ответа на неоднозначный вопрос, если параметр неопределенности превышает некоторый порог.

О том, как этого добиваются при проектировании seq2seq-моделей, можно узнать из свежего поста на Хабр, который мы сделали вместе с Артёмом Важенцевым — сотрудником группы «Вычислительная семантика» AIRI. Заодно он поведал о том, какого прогресса достигла их команда.

Кстати, ранее мы с ним уже рассказывали читателям про классификацию неоднозначных текстов
👍53