Sber AI – Telegram
Sber AI
37.8K subscribers
2.44K photos
620 videos
1 file
2.05K links
AI для людей: всё об искусственном интеллекте в мире и Сбере 💚

Рассказываем, как AI меняет нашу жизнь, разбираем тренды технологий и делимся новыми разработками!
Download Telegram
Прочитала на The Verge, что Alphabet попыталась объединить два своих амбициозных направления — робототехнику и обработку естественного языка. Так разработчики хотят научить роботов-ассистентов понимать обычные просьбы.

У «корпорации добра» уже есть роботы-помощники (проект Everyday Robots запустили ещё в 2019 году) 🤖 По сути, это механические руки на колёсиках — они умеют вытирать столы, переставлять посуду и открывать двери. Но пока это только прототипы. Журналисты The Verge называют их в видео «медленными и нерешительными».

🧠 Но теперь роботы хотя бы станут умнее. Alphabet обучила их на большой языковой модели PaLM c 540 млрд параметров (я мельком о ней упоминала, когда писала про другой гугловский алгоритм Minerva). PaLM хорошо понимает контекст, поэтому может правильно реагировать даже на неочевидные запросы.

Разработчики привели такой пример. Если сказать механическому помощнику «Я пролил свой сок, можешь помочь?», он интерпретирует просьбу как «Принеси мне губку с кухни» 😱

В Alphabet говорят, что во время тестов обученные роботы правильно понимали инструкции пользователей в 84% случаях (и успешно их выполняли в 74% сценариев). Но я бы относилась к этим цифрам настороженно. Ведь нам не говорят, какие конкретно давали запросы. Вряд ли это были очень сложные предложения.

А в этом и есть главная проблема создания роботов-помощников. Наша жизнь слишком беспорядочна, чтобы ИИ мог в ней ориентироваться на достойном уровне. Даже чтобы выполнить элементарную команду «Порежь яблоко», он должен как минимум знать, где лежат фрукты и какого размера нужны дольки.

Вот почему единственный домашний механический помощник, который может хорошо выполнять свою работу — это робот-пылесос. У него всего одна задача, на которую он запрограммирован — всасывать грязь 🫡

Но будем объективны: Alphabet делает важные шаги в робототехнике. Пусть до полноценных помощников роботам ещё далеко, но они действительно становятся умнее. Так что ждём, пока разработчики доведут проект до ума. Как говорится, будем посмотреть.
👍7🔥1
5 нейросеток для теста прямо сейчас

Решила собрать интересные нейросетки, с которыми может поэкспериментировать любой. Не нужно даже оставлять заявку на участие в бета-тесте.

ThisPersonDoesntExist

Каждое обновление страницы на этом сайте подарит вам новую фотографию человека. Но есть одно «но» — люди на этих снимках не настоящие, все изображения генерирует нейросеть. Зато она делает это так филигранно, что отличить реальное фото от фейка не могут даже профессиональные фотографы. Кстати, интересный факт: журналисты иногда берут эти снимки, если не хотят «светить» лицом 🫥

Полупроводниковый оркестр

Если вы когда-нибудь мечтали стать дирижёром, у вас есть шанс потренироваться на этом сайте. ИИ-сервис с помощью веб-камеры распознаёт движение рук. Чем сильнее вы машете конечностями, тем быстрее играют электронные инструменты. По такому же принципу можно управлять громкостью — достаточно поднимать руки вверх и вниз.

👯‍♀️ Единственный минус — оркестр пока знает только одну мелодию. Но даже этого хватит, чтобы оценить возможности искусственного интеллекта.

Бесконечная драм-машина

🎧 Ещё один музыкальный сервис позволяет создавать биты из тысячи повседневных звуков. Например, из лая собаки и хруста печенек. Или из звуков чихания и металлического скрежета — вариантов почти бесконечное количество. Всё, что от вас требуется — поставить точки на своеобразной карте и нажать кнопку Play.

ИИ-дуэт

На этом сайте нарисованы ноты фортепиано. Можете наиграть любую мелодию, а искусственный интеллект подстроится под вас и продолжит ваше общее музыкальное произведение 🎼 Попробуйте, даже если совсем не умеете играть и никогда не учили сольфеджио — процесс увлекательный. Особенно если у вашего дуэта получается красивая музыка.

DALL-E Mini

🖼 Доступ к полноценной версии DALL-E пока ограничен. Но можно легко потестировать её урезанную версию. В её основе та же модель ИИ, которая создаёт изображение на основе текстового запроса. Правда, вычислительная мощность здесь поменьше, так что финальная картинка будет менее чёткая. Но поиграться с нейросеткой всё равно интересно.
👍16🔥4
ИИ против учёных-мошенников

Прочитала на The Register материал о том, как в академической среде борются с мошенниками. Точнее, с теми, кто намеренно подделывает результаты своих исследований.

🤥 Автор пишет, что хитрые «учёные» часто берут одно изображение, например, скопления клеток (cluster of cells), копируют его, переворачивают, обрезают — в общем, фотошопят. Так они делают вид, что провели гораздо больше экспериментов, чем на самом деле.

Такие фейковые изображения — главная причина отзыва статей из медицинских изданий, говорят эксперты в статье. И последствия ложатся не столько на плечи нерадивых авторов, сколько на самих издателей. Ведь получается, что редакторы плохо сделали свою работу — имидж журнала падает🤦‍♂️

Поиск дубликатов изображений — утомительная задача для людей. Но с ней отлично справляются алгоритмы. Поэтому теперь некоторые издатели используют ПО на основе искусственного интеллекта, чтобы находить фейки заранее. Например, Американская ассоциация по изучению рака (AACR) тестирует программу Proofig от одноимённого израильского стартапа.

🤖 С января 2021 по май 2022 года алгоритм проверил 1367 рукописей, предварительно одобренных к публикации. В 208 случаях ПО обнаружило дубликаты изображений. Большинство из них, скорее всего, сделаны из-за неаккуратности учёных — авторы просто исправляли ошибку и присылали правильные данные.

В редких случаях сомнительные картинки действительно оказались сфальсифицированы. По этой причине четыре статьи пришлось отозвать. В процентном соотношении это немного, однако каждая из них в теории могла подпортить имидж издания.

🙏 Результаты обнадеживают, но инструменты вроде Proofig пока не готовы полностью заменить редакторов. Иногда они игнорируют очевидные фейки или, наоборот, случайно помечают подлинные изображения, поэтому за работу алгоритмов приходится контролировать. В любом случае — двойная проверка явно надёжнее одинарной.
👍12🔥4
ИИ определит безопасность родов прямо во время операции

Думаю, нет смысла лишний раз говорить об опасностях, с которыми женщина и её будущий ребёнок сталкиваются во время беременности и родов. Вы и без меня наверняка слышали хотя бы одну историю, которую хочется поскорее забыть 🥶

Но технологии в медицине развиваются быстро, так что печальных случаев становится всё меньше 👩‍⚕️ Хочу рассказать об успехах американцев из крупного исследовательского центра — клиники Мейо. Они разработали ИИ-алгоритм, который рассчитывает индивидуальные риски для роженицы и её ребёнка.

👩🏻‍💻 Модель учитывает где-то 700 параметров, её обучили на 66 с лишним тысячах родов. Причём в этих наборах данных была информация не только о самом процессе рождения, но и обо всех осмотрах/анализах с момента поступления женщин в роддома.

Если алгоритм успешно пройдёт все этапы тестирования, его станут применять в реальном времени, прямо во время “процесса”. То есть врачам и акушерам нужно будет вводить новые данные в программу, а та будет моментально пересчитывать риск неблагоприятного исхода (и заодно давать рекомендации медикам) 🩺

Это поможет легче решать, нужно ли, например, делать кесарево сечение. А ещё такой подход, в теории, должен снизить риск осложнений у мам и новорождённых.

👆 Авторы исследования говорят, что с алгоритмом удобнее будет определять состояние будущей матери во время беременности. Если ИИ заподозрит что-то неладное ещё до родов, у женщины останется больше времени на госпитализацию или на перевод в более подходящую клинику.

📉 Как неочевидный бонус — искусственный интеллект поможет ещё и государству. Он может снизить расходы на здравоохранение (в США на лечение матерей после тяжёлых родов уходит по 30 млрд долларов в год).

Будем надеяться, что ИИ спасёт не одну жизнь. Но когда это будут внедрять — пока неясно. Ведь исследователи ещё даже не опубликовали оценки результатов работы алгоритма.
👍10🔥5
Гуманоид лежит на траве, он корчится и не может встать. Примерно так началось обучение виртуальных человечков игре в футбол ⚽️

На Wired вышла забавная заметка о том, как исследователи из гугловской DeepMind шаг за шагом разрабатывали сильный ИИ (AGI), который сможет пинать мяч не хуже человека-футболиста.

Зачем вообще это нужно? Чтобы роботы будущего и аватары в метавселенных двигались максимально естественно, как реальные люди 🕺🏿 Футбол здесь — не конечная цель, а способ обучения.

Сначала учёные создали модельки с ограниченным диапазоном движений. Гуманоиды не могут выворачивать коленный сустав, чтобы лучше подстроиться под мяч. В общем, анатомия получилась близкой к человеческой.

Чуть ли не самым сложным оказалось научить AGI управлению телом, координацией 🦿 Ведь для этого нужно овладеть и моторикой, и долгосрочным планированием. Если вам кажется, что ничего сложного здесь нет — ̶п̶о̶с̶м̶о̶т̶р̶и̶т̶е̶ ̶н̶а̶ ̶н̶а̶ш̶и̶х̶ ̶ф̶у̶т̶б̶о̶л̶и̶с̶т̶о̶в̶ попробуйте сыграть в браузерную QWOP. Задача элементарная: заставить человечка идти и не падать. Через пару попыток поймёте, в чем загвоздка.

🤖 Для начала в DeepMind поставили перед виртуальными агентами цель: пробежать или ударить по мячу. Но метод обучения с подкреплением не сработал из-за огромного количества вариантов и недостатка предварительных знаний — модельки просто корчились на земле.

Тогда учёные «скормили» ИИ данные, которые получили с помощью захвата движения реальных футболистов. Это ограничило гуманоидов — через какое-то время их движения стали похожи на человеческие.

Дальше «спортсменов» начали учить дриблингу, бегу и удару по мячу. И только после этого их допустили до матчей. Сначала модельки хаотично бегали за мячом, как собаки за фрисби 🐕 Они постоянно спотыкались и почти падали. Голы залетали в ворота случайно, мяч удачно отскакивал от стены.

Но через несколько дней тренировок футболисты научились командной работе. Теперь они не просто тупо бегут к воротам с мячом, но ждут партнёров и даже пасуются (ну, или пытаются). Учёные говорят, что впервые видят такую координацию в настолько сложной модели ИИ.

Видео: https://www.youtube.com/watch?v=KHMwq9pv7mg&t=49s
👍14
Лучшие ИИ-стартапы для маркетинга и разработки ПО

Увидела на TechCrunch интересную подборку молодых компаний, которые вышли из американского бизнес-инкубатора Y Combinator. Вполне возможно, что у стартапов большое будущее — этот венчурный фонд в своё время заметил и помог Reddit, Dropbox, AirBnB и Twitch.

Pilot AI

Стартап разрабатывает инструмент для торговых представителей и менеджеров по продажам. Он автоматически преобразует записи телефонных разговоров в структурированные данные и сразу вбивает их в базу (CRM). В общем, менеджерам нужно будет меньше работать руками — всю бюрократическую часть сделает робот.

Похожие платформы уже работают — на рынке есть Fireflies.ai и Viva Sales от Microsoft. Но основатель компании Макс Лу (бывший инженер-программист Salesforce) уверяет, что его продукт проработан тщательнее. Например, алгоритм умеет генерировать сводку по каждому звонку.

TypeWise

Изначально швейцарский стартап разработал виртуальную клавиатуру для пользователей смартфонов. Благодаря ИИ она могла качественно исправлять опечатки и предсказывать следующие слова. Но недавно компания переключилась на B2B-сегмент. Топ-менеджеры посчитали, что их разработку лучше всего оценят в бизнесе, где цена ошибки гораздо выше.

Расширение для браузера совместимо со всеми существующими CRM-системами. По словам разработчиков, инструмент могут использовать любые компании — он быстро обучается. Так, TypeWise умеет заканчивать предложения, проверять стилистику и орфографию, а также автоматически отвечать на письма клиентов.

Hello

Грубо говоря, Hello — это удобный поисковик для программистов. Разработчик пишет какой-нибудь запрос, а программа моментально выдаёт ему максимально релевантный ответ. С пояснениями и соответствующими фрагментами кода из интернета.

Алгоритм основан на больших языковых моделях (скорее всего, GPT-3). Он сверяется с информацией одновременно в разных источниках, чтобы выдать самый вероятный ответ.
🔥9🤔5
Искусственный интеллект поможет нам общаться с младенцами?

🤔 Ещё недавно эксперты считали, что машины вряд ли научатся анализировать языки наравне с людьми. Но исследователи из MIT и ещё нескольких американских университетов, кажется, сделали большой шаг в обучении ИИ.

Их новая система умеет сама определять правила в разных языковых моделях. Ей достаточно скормить небольшой набор слов в разных временах, падежах и родах — тогда программа предложит принципы, по которым словоформа в этих случаях меняется.

Учёные привели такой пример. Если в русском языке на конце слова появляется буква «а», значит, алгоритм поймёт, что скорее всего мужской род здесь меняется на женский.

Лингвисты обучили модель на задачах из учебников на 58 различных языках. Уникальность системы в том, что она работает не с одним большим набором данных, а с множеством маленьких, взаимосвязанных. Чтобы определить правила, ей достаточно всего нескольких десятков слов.

👶 А теперь самое интересное (для нас): зачем вообще нужна такая модель? Например, с её помощью исследователи надеются лучше понять, как учатся говорить младенцы.

При этом разработчики не хотят ограничиваться лингвистикой. Они считают, что модель можно будет использовать и в других областях. Например, в физике — модифицированный алгоритм смог бы выводить дифференциальные уравнения из наборов данных о движении объектов в пространстве.

Во время первых тестов алгоритм показал хорошие результаты. Ему дали 70 задач из учебников по лингвистике — в 79% случаев программа правильно меняла словоформу.

Для чистоты эксперимента учёные решили дообучить модель с помощью дополнительных знаний, которые обычный человек мог бы усвоить на курсах лингвистики. После этого процент правильных ответов вырос (правда, не пишут, на сколько конкретно).

🎓 Плюс модели ещё и в том, что она понимает, когда правила для одного языка применимы к другому. Так, знание русского облегчило ей решение задачи на польском — потому что языки похожи.
👍8🔥2
Как работает новый алгоритм ProteinMPNN
👍12🔥2
ИИ-новинки NVIDIA на GTC

Вчера NVIDIA показала новые видеокарты. Но мне куда интереснее другой анонс — сервисы NeMo LLM и BioNeMo LLM, которые упрощают адаптацию больших языковых моделей и развёртывание приложений на базе ИИ.

Проблема в том, что разработка и обучение LLM обходится дорого. Говорят, на недавнюю PaLM от Google потратили минимум девять миллионов долларов (а возможно, и в два раза больше). Да и времени это занимает немало: обычно несколько недель или даже месяцев.

По словам представителей NVIDIA, с помощью новых инструментов можно будет создавать модели размерами от 3 до 530 млрд параметров. И это займёт часы или даже минуты!

Такая высокая скорость достигается за счёт того, что модели не придётся разрабатывать с нуля — можно будет адаптировать уже существующие базовые (с помощью метода prompt learning). Для этого достаточно «скормить» нейросети всего несколько сотен примеров. Фишка ещё и в том, что одну и ту же модель получится настраивать для нескольких вариантов использования.

На презентации мельком упомянули функцию playground — она позволит «играться», то есть экспериментировать с моделями без использования кода. Видимо, нейросетки можно будет настраивать с помощью текстовых подсказок или других инструментов. В любом случае, настройка станет доступнее.

После развёртывания модель можно будет запускать в облаке, локально или через API.

Платформа BioNeMo LLM предназначена для учёных, занимающихся естественными науками. Инструмент поддерживает форматы данных о белках, ДНК и РНК. Другими словами, он поможет лучше понимать болезни и находить для них лечение. А ещё фреймворк включает две новые языковые модели, которые работают с приложениями в области химии и биологии.

Пока разработчики не назвали точную дату релиза. Но ожидается, что NeMo LLM и BioNeMop LLM откроются в раннем доступе уже в октябре. А сторонние разработчики могут подать заявку уже сейчас.
👍9🔥2😱1
Кодеры больше не нужны?

С таких слов началась любопытная статья на сайте IEEE Spectrum. Если вдруг не слышали про это издание, то где вы были все эти годы? Один из ведущих научных и инженерных журналов в мире, издаётся аж с 60-х!

Извините, отвлеклась. Авторы материала решили поспрашивать именитых экспертов, сможет ли искусственный интеллект заменить программистов. Спойлер — программисты могут выдохнуть.

Но индустрия паникует не просто так. В 2020 году языковую модель GPT-3 обучили фронтенду — сначала модель рисовала макеты по текстовому описанию, а затем научилась создавать веб-элементы. Позже появились системы, которые могут писать (пусть и пока простые) компьютерные программы — достаточно их об этом попросить.

Вице-президент Amazon, отвечающий за ИИ, Васи Филомин не верит, что искусственный интеллект хоть сколько-нибудь заменит людей-разработчиков. Напротив — новые инструменты освободят программистов от рутины, чтобы у них оставалось больше времени для творчества.

Впрочем, я не ожидала услышать от него ничего другого. Ведь всего пару месяцев назад Филомин презентовал инструмент CodeWhisperer, который умеет писать целые функции на основе комментария или нескольких строчек кода.

Соучредитель Diffblue Питер Шраммель тоже уверен, что автоматическая генерация кода поможет разработчикам сосредоточиться на более важных задачах. Но есть нюанс: даже в этом случае человеку придётся взаимодействовать с ИИ, чтобы проверить, правильно ли машина поняла его инструкции.

Ориол Виньялс, руководитель группы глубокого обучения DeepMind предупреждает: даже если ИИ заменит живых программистов, до этого ещё нужно будет дожить. Возможно, потребуются десятилетия. С ним согласен основатель и СЕО Landing AI Эндрю Нг.

«Мы все еще очень далеки от того, чтобы человек мог сообщить компьютеру о требованиях к произвольной сложной компьютерной программе и автоматически закодировать её», — сказал он.

Чтобы давать компьютеру инструкции на естественном языке, разработчикам по-прежнему нужно понимать некоторые концепции логики и функций. Без опыта в программировании, без основ это невозможно, говорят эксперты.
4👍4🤔4🔥1
Синтез с преобразователями

Регулярно читаю гугловский блог, у них много интересного про ИИ. Например, пару дней назад разработчики рассказали, как отчасти решили давнюю проблему на границе компьютерного зрения и графики — синтез трёхмерных сцен.

Если в двух словах описать сложность, то нейросети пока не всегда хорошо справляются с тем, чтобы создавать новую сцену из статичных изображений.

Проблема в том, что для точного синтеза модель должна собирать данные разной природы: 3D, информацию об освещённости и тд. И всё это нужно получить иногда всего из нескольких снимков.

И вот недавно исследователи представили модель глубокого обучения, которая может создавать новые сцены по нескольким картинкам. Причём в очень хорошем качестве. Технология называется Light Field Neural Rendering (LFNR).

Входные данные для моделей состоят из набора фотографий, параметров камеры (фокусное расстояние, положение и ориентация в пространстве) и параметры среды.

Вместо полной обработки каждого изображения, модели рассматривают только те области, которые могут повлиять на целевой пиксель. Они определяются с помощью эпиполярной геометрии, которая отображает каждый целевой пиксель в линию на каждом кадре. Для надёжности нейросети берут небольшие участки вокруг точек на эпиполярной линии.

Затем на этот участок воздействует последовательность из двух преобразователей. Первый агрегирует информацию по каждой эпиполярной линии, а второй — по каждому представленному изображению. Так исследователи сопоставляют наборы фрагментов, выделенных вдоль эпиполярных линий, с целевым цветом пикселя.

LFNR показал отличные результаты в самых популярных тестах синтеза изображений. Посмотрите на гифку ниже — это результат работы модели. Отражение на компакт-диске и преломление света через бутылку выглядят очень реалистично.
👍3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Та самая гифка. LFNR хорош!
🔥6👍2
Ухаживаем за курочками с помощью ИИ

Помните, я недавно рассказывала об алгоритме, который рассчитывает риски для будущих матерей и помогает сделать роды более безопасными? Так вот, теперь ИИ приспособили ещё и для ухода за куриным потомством.

Энтузиаст Актар Кутлухан построил IoT-систему на базе искусственного интеллекта, которая автоматически кормит пернатых и следит за невылупившимися яйцами. Как пояснил инженер, на частоту кладки яиц и здоровье будущих птенцов влияет множество факторов, за которыми не всегда получается уследить. Например, если неправильно выстроить график кормления, курицы и вовсе могут перестать нестись. Остановка несения яиц — это ли не проклятье фермера?

Вот что использовал Актар для проекта:

👉 Алгоритм Edge Impulse FOMO (Faster Objects More Objects) для обучения модели обнаружения объектов
👉 Компактная система компьютерного зрения OpenMV Cam H7
👉 Модуль WizFi360-EVB-Pico, чтобы подключить камеру к Wi-Fi
👉 8,9-дюймовый IPS-дисплей DFRobot
👉 1,8-дюймовый TFT-дисплей ST7735
👉 Датчик температуры и влажности DHT22
👉 Пауэрбанк на 20 000 мА*ч

Кстати, весь набор очень бюджетный. Без учета 8,9-дюймового тачскрина за детали придётся отдать где-то 125 долларов (чуть больше 7 тысяч рублей).

Как это всё работает?
Искусственный интеллект подсчитывает число снесённых яиц и следит за тем, чтобы у пернатых всегда была еда. Также система проверяет, чтобы в клетке сохранялись комфортные температура и влажность. Все данные отправляются курозаводчику через WhatsApp.

Очевидно, что вы захотите построить себе такой же аппарат, специально для вас подробная инструкция от Кутлухана.
👍8🔥3
Через 2 дня Tesla наконец покажет своего человекоподобного робота

Компания анонсировала AI Day ещё в августе. Но Маск написал, что мероприятие решили перенести на 30 сентября — видимо, раньше они не успевали допилить своего Оптимуса (так будет называться их антропоморфный робот).

Уже реально интересно посмотреть хотя бы на прототип. Пока мы знаем некоторые характеристики модели:

👆 Рост — 1,73 см
Вес — почти 57 кг
🚀 Максимальная скорость — 8 км/ч (сможете от него убежать, если что)
🏋‍♀️ Вес, который он сможет поднять — 68 кг

Логичный вопрос: а зачем он вообще нужен? В теории, этот терминатор пригодится на заводах. Он будет таскать тяжелые детали и выполнять другую монотонную (или опасную) работу.

Для ориентации в пространстве у робота будет восемь камер. А управлять Оптимусом будет тот же FSD-компьютер, который используется в автомобилях Tesla.

В общем, любопытно будет посмотреть на результат. Потому что вопросов осталось очень много. Сколько он будет работать без подзарядки (и куда вставлять провод)? Как будет реагировать на обычные «человеческие» команды?

Последние новости об этом роботе были только в прошлом году. Вот, кстати, отрывок той презентации.
👍9🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
А это интро из той самой презентации Маска. Да, такой Оптимус я бы и сама купила!
🤩11👏4😁2👍1🔥1
«Инопланетный» интеллект играет в покер лучше профессионалов

Немецкий журналист Фред Швалер написал очень интересный материал о том, почему ИИ решает человеческие проблемы не так, как мы к этому привыкли. Автор объяснил разницу практически на пальцах — всё видно очень наглядно на примере игры в покер.

Пару лет назад бот Pluribus обыграл пятерых лучших гемблеров — они отдали ему 1,7 млн долларов. Тогда игроков спросили, мол, что произошло. Оказалось, бот слишком круто блефовал. «Ни один человек никогда бы не делал такие ставки» — жаловались игроки. Они даже сравнили бота с инопланетянином.

Почему так происходит? Потому что люди и ИИ учатся играть по-разному. Человек приобретает два основных навыка: как принимать лучшие математические решения и как «читать» оппонентов. А Pluribus пошёл другим путём: он натренировал искусство блефа через триллионы игр, методом проб и ошибок. Помог метод обучения с подкреплением.

У людей нет ни времени, ни ресурсов на такие тренировки. Наш мозг теряет много воспоминаний, которые считает лишними, неважными для выживания. А машины всё это накапливают и используют. Архитектура компьютера и мозга отличаются очень сильно — отсюда и разные способы решения проблем.

ИИ кажется «инопланетным» неслучайно. Он не только думает по-другому, но и лишён эмоций. А из-за них люди не могут научиться блефовать так же круто. Бот не боится потерять деньги, поэтому может идти ва-банк с любыми картами.

При этом нестандартное «мышление» искусственного интеллекта помогает учёным делать открытия. Идеальный пример — нейросеть AlphaFold, которая предсказала трёхмерную структуру почти всех существующих белков. А это, на секундочку, один из фундаментальных вопросов биологии (недавно писала про это подробный пост).

Но в «инопланетности» есть и минусы. Человек должен хорошо понимать, как работает ИИ, чтобы контролировать его. А с этим у нас могут возникнуть проблемы.
🔥10👍3
Недельный дAIджест души питона

Решила по пятницам делать небольшую подборку самых интересных (для меня) новостей. Поехали.

Text-to-video

Генерацией картинок уже никого не удивишь, поэтому сразу несколько компаний (сами знаете каких) показали достижения в новых областях. Один из алгоритмов делает короткие видео по текстовым описаниям. Пока результаты с низким разрешением, а доступ есть только у разработчиков. Но все равно кадры впечатляют.

Второй алгоритм создает 3D-модельки, метод называется DreamFusion, он использует 2D-диффузию. В качестве входных данных опять же текстовые подсказки.

BigCode

Стартап Hugging Face и ServiceNow Research запустили проект, который решает часть этических и правовых проблем при создании больших языковых моделей. Например, недавно разработчиков платного сервиса Copilot обвинили в том, что алгоритм обучался, в том числе, на материале, авторы которого не давали своего согласия.

BigCode должен выпустить большой набор данных для обучения систем генерации кода. Он понадобится для создания прототипа — модели с 15 млрд параметров (это больше чем у Codex с 12 млн, но почти в три раза меньше AlphaCode). Алгоритм будет открыт для исследователей.

Tesla AI

Так сказать, новость будущего во всех смыслах. Мероприятие Маска начнется 30 сентября в 17:00 по Тихоокеанскому времени, то есть в 3:00 субботы по Москве. Помимо долгожданного робота Оптимуса, там могут показать усовершенствованный автопилот и много другого. Если планируете на выходных тотальный «диджитал-детокс», то заходите в канал в понедельник, я расскажу с утра о главном.

Whisper

Open AI выпустила нейросеть для распознавания речи с 1,5 млрд параметров и открытым исходным кодом. Её натренировали на 680 тысячах часов аудиоданных с расшифровками на 98 языках.

С моделькой уже можно поиграться: код разработчики сразу выложили на GitHub. Из плюсов — она автоматически распознаёт несколько языков, в том числе русский.
👍9🔥5