Консультации
Напомню, что я консультирую по ответственной разработке и безопасному внедрению и применению ИИ-систем в бизнесе:
- с чего начать,
- в чём риски,
- какие политики принять в вашей организации и какие контроли внедрить,
- на что обращать внимание при выборе поставщика, какие положения включать в договоры с поставщиками и клиентами,
- как начать подготовку к приведению в соответствие с проектируемым Регламентом ЕС по ИИ уже сейчас (чтобы потом не пришлось переобучать все ваши системы заново).
Также, исходя из моего собственного карьерного опыта, я даю карьерные консультации и предлагаю менторство. По этому виду консультаций при оплате до конца этого месяца (то есть сегодня или завтра) есть возможность получить скидку и забронировать удобные дату и время в феврале. Студентам — дополнительная скидка.
По всем вопросам пишите сюда.
Напомню, что я консультирую по ответственной разработке и безопасному внедрению и применению ИИ-систем в бизнесе:
- с чего начать,
- в чём риски,
- какие политики принять в вашей организации и какие контроли внедрить,
- на что обращать внимание при выборе поставщика, какие положения включать в договоры с поставщиками и клиентами,
- как начать подготовку к приведению в соответствие с проектируемым Регламентом ЕС по ИИ уже сейчас (чтобы потом не пришлось переобучать все ваши системы заново).
Также, исходя из моего собственного карьерного опыта, я даю карьерные консультации и предлагаю менторство. По этому виду консультаций при оплате до конца этого месяца (то есть сегодня или завтра) есть возможность получить скидку и забронировать удобные дату и время в феврале. Студентам — дополнительная скидка.
По всем вопросам пишите сюда.
❤6🔥3
В Сенате США проходит "прожарка" топ-менеджеров технологических компаний
На проходящих в данный момент слушаниях сенатского комитета по вопросам юстиции опрашиваются руководители пяти крупнейших технологических компаний, включая генерального директора Меты* Марка Цукерберга, относительно потенциального вреда от их продуктов для подростков.
Республиканский сенатор Тед Круз резко раскритиковал Цукерберга за недостаточные меры по защите детей от неподобающего контента в Инстаграме.
Цукерберг встал, чтобы извиниться перед присутствующими семьями, сказав, что сожалеет о том, что им пришлось пережить, и что компания прикладывает много усилий для того, чтобы обсуждаемые на слушаниях случаи более не повторялись.
Эфир
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
На проходящих в данный момент слушаниях сенатского комитета по вопросам юстиции опрашиваются руководители пяти крупнейших технологических компаний, включая генерального директора Меты* Марка Цукерберга, относительно потенциального вреда от их продуктов для подростков.
Республиканский сенатор Тед Круз резко раскритиковал Цукерберга за недостаточные меры по защите детей от неподобающего контента в Инстаграме.
Цукерберг встал, чтобы извиниться перед присутствующими семьями, сказав, что сожалеет о том, что им пришлось пережить, и что компания прикладывает много усилий для того, чтобы обсуждаемые на слушаниях случаи более не повторялись.
Эфир
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
👍3❤2🔥2😁1
Robocounsel
Хотите быть ближе к реальной проблематике ИИ? Напомню, что у нас есть сообщество для совместного изучения фреймворков по ИИ: как встраивать в бизнес-процессы, как управлять рисками, как проводить аудит. Если вам в перспективе интересно попробовать силы в…
AI Governance сообщество
В связи с изменением системы платных подписок в Телеграме публикую новую ссылку, по которой вы можете вступить в наше сообщество AI Governance.
О сути сообщества писал выше.
Существующим подписчикам ничего делать не нужно — при необходимости напишу адресно, в личные сообщения.
В связи с изменением системы платных подписок в Телеграме публикую новую ссылку, по которой вы можете вступить в наше сообщество AI Governance.
О сути сообщества писал выше.
Существующим подписчикам ничего делать не нужно — при необходимости напишу адресно, в личные сообщения.
Telegram
Tribute
This bot helps content creators receive financial support from their followers directly in the app.
👍5❤3
Robocounsel
st05662.en24[1].pdf
КОРЕПЕР утвердил Регламент ЕС по ИИ
Комитет постоянных представителей Совета ЕС одобрил проект Регламента ЕС по искусственному интеллекту.
Совет ЕС должен будет уведомить Европарламент о том, что текст, выработанный по итогам трилогов, согласован и может быть в таком виде окончательно принят в первом же чтении.
С вероятностью, близкой к 100%, таким образом Регламент будет принят в этом году.
Комитет постоянных представителей Совета ЕС одобрил проект Регламента ЕС по искусственному интеллекту.
Совет ЕС должен будет уведомить Европарламент о том, что текст, выработанный по итогам трилогов, согласован и может быть в таком виде окончательно принят в первом же чтении.
С вероятностью, близкой к 100%, таким образом Регламент будет принят в этом году.
EURACTIV
EU countries give crucial nod to first-of-a-kind Artificial Intelligence law
The ambassadors of the 27 countries of the European Union unanimously adopted the world’s first comprehensive rulebook for Artificial Intelligence, rubber-stamping the political agreement that was reached in December.
👍8❤1
Robocounsel
Классификация ИИ-систем в Регламенте ЕС Опубликовал наглядную классификацию ИИ-систем и моделей по последней редакции Регламента ЕС по ИИ в виде диаграммы. Основная ценность в том, что видны все пересечения категорий и, соответственно, правовых режимов.
Классификация ИИ-систем по Регламенту ЕС
Дублирую для тех, у кого нет доступа к Линкдину
Дублирую для тех, у кого нет доступа к Линкдину
❤10👍8
Одобренный КОРЕПЕР проект Регламента ЕС по ИИ
Текст размещён здесь.
По сравнению с "утекшей" 22 января версией в этом тексте исправлен ряд опечаток, в том числе в важных местах.
Например — то ли независимо, то ли по моей наводке, которую я дал разработчикам накануне — устранена неясность по поводу объёма понятия "системы распознавания эмоций" (СРЭ).
В частности, в пункте 8а преамбулы "утекшей" версии содержались две взаимно противоречащие фразы о том, относятся ли к СРЭ системы контроля физиологических состояний организма, в частности, системы контроля усталости (СКУ) пилотов и водителей.
В редакции, вынесенной на КОРЕПЕР, эта ошибка исправлена. Исходя из неё, авторы текста подтвердили, что системы контроля физиологических состояний, включая СКУ, не относятся к СРЭ.
В то же время, любые подобные системы, и СРЭ, и СКУ, при их использовании для оценки персонала и обучающихся классифицируются как системы повышенной опасности по Приложению III к Регламенту, с соответствующими требованиями к их разработке и эксплуатации.
Текст размещён здесь.
По сравнению с "утекшей" 22 января версией в этом тексте исправлен ряд опечаток, в том числе в важных местах.
Например — то ли независимо, то ли по моей наводке, которую я дал разработчикам накануне — устранена неясность по поводу объёма понятия "системы распознавания эмоций" (СРЭ).
В частности, в пункте 8а преамбулы "утекшей" версии содержались две взаимно противоречащие фразы о том, относятся ли к СРЭ системы контроля физиологических состояний организма, в частности, системы контроля усталости (СКУ) пилотов и водителей.
В редакции, вынесенной на КОРЕПЕР, эта ошибка исправлена. Исходя из неё, авторы текста подтвердили, что системы контроля физиологических состояний, включая СКУ, не относятся к СРЭ.
В то же время, любые подобные системы, и СРЭ, и СКУ, при их использовании для оценки персонала и обучающихся классифицируются как системы повышенной опасности по Приложению III к Регламенту, с соответствующими требованиями к их разработке и эксплуатации.
👍12❤1
Сколько бизнес тратит на генеративный ИИ?
По данным опроса 450 бизнес-лидеров в США и Европе за 2023 год такие затраты составили 2,5 млрд. долл.
Это 18% от затрат на "традиционный" ИИ (компьютерное зрение, предиктивный ИИ и т.п., 70 млрд. долл.). Цифра также незначительна по сравнению с затратами на облачную инфраструктуру (400 млрд. долл.).
Ожидания тех, кто пророчил массовое появление в организациях собственных моделей генеративного ИИ, не оправдались: только 10% предприятий сами обучают свои модели. 90% предпочитают использовать готовые, в основном от Оупен-Эй-Ай и Антропик.
Более того, 96% от бюджетов, выделяемых на ИИ, уходит на эксплуатацию уже обученных моделей, а не на их обучение.
Основным барьером для внедрения систем генеративного ИИ на предприятиях остаётся недоказанность экономического эффекта от такого внедрения.
Ещё больше интересных деталей — по ссылке.
По данным опроса 450 бизнес-лидеров в США и Европе за 2023 год такие затраты составили 2,5 млрд. долл.
Это 18% от затрат на "традиционный" ИИ (компьютерное зрение, предиктивный ИИ и т.п., 70 млрд. долл.). Цифра также незначительна по сравнению с затратами на облачную инфраструктуру (400 млрд. долл.).
Ожидания тех, кто пророчил массовое появление в организациях собственных моделей генеративного ИИ, не оправдались: только 10% предприятий сами обучают свои модели. 90% предпочитают использовать готовые, в основном от Оупен-Эй-Ай и Антропик.
Более того, 96% от бюджетов, выделяемых на ИИ, уходит на эксплуатацию уже обученных моделей, а не на их обучение.
Основным барьером для внедрения систем генеративного ИИ на предприятиях остаётся недоказанность экономического эффекта от такого внедрения.
Ещё больше интересных деталей — по ссылке.
👍13👏1
The_Metaverse_impact_on_HR,_RoL_and_democracy_Abridged_report_docx.pdf
1.2 MB
Метавселенная и её влияние на права человека, верховенство права и демократию
Совет Европы и американский Институт инженеров электротехники и электроники опубликовали сокращённую версию готовящегося к изданию одноимённого совместного отчёта (во вложении).
В документе рассматриваются технические, правовые, социальные и этические вопросы, связанные с разработкой и внедрением метавселенной, а также потенциальные перспективы и риски.
Совет Европы и американский Институт инженеров электротехники и электроники опубликовали сокращённую версию готовящегося к изданию одноимённого совместного отчёта (во вложении).
В документе рассматриваются технические, правовые, социальные и этические вопросы, связанные с разработкой и внедрением метавселенной, а также потенциальные перспективы и риски.
🔥6❤5
Французский антимонопольный орган проводит публичную консультацию по генеративному ИИ
Консультация начата сегодня для выработки антимонопольной политики с учётом стратегий ключевых игроков этого рынка и открыта до 22 марта 2024 года.
Мотивом является то, что этот новый рынок сейчас быстро консолидируется вокруг компаний, уже имеющих и так сильную рыночную позицию на смежных рынках, таких как облачные вычисления.
Напомню, что два лидера генеративных моделей, Оупен-Эй-Ай и Антропик, имеют в качестве стратегических партнёров Майкрософт и Амазон — в чьих руках находится соответственно 23% и 32% глобального рынка облачных вычислений. У Гугла, который сам разрабатывает генеративные модели — 10% облачного рынка.
Консультация начата сегодня для выработки антимонопольной политики с учётом стратегий ключевых игроков этого рынка и открыта до 22 марта 2024 года.
Мотивом является то, что этот новый рынок сейчас быстро консолидируется вокруг компаний, уже имеющих и так сильную рыночную позицию на смежных рынках, таких как облачные вычисления.
Напомню, что два лидера генеративных моделей, Оупен-Эй-Ай и Антропик, имеют в качестве стратегических партнёров Майкрософт и Амазон — в чьих руках находится соответственно 23% и 32% глобального рынка облачных вычислений. У Гугла, который сам разрабатывает генеративные модели — 10% облачного рынка.
👍7
Обучение чатботов как фактор вреда на производстве
Новые чатботы от Оупен-Эй-Ай, Майкрософта, Яндекса, Сбера и других компаний работают на базе больших языковых моделей.
Эти модели создаются и обучаются в несколько этапов, и один или несколько из этих этапов предполагает участие людей — для так называемого обучения с подкреплением.
В последнем случае модель за счёт обратной связи от людей "поощряется" за выдачу адекватных результатов и "отучается" выдавать "токсичный" и нелегальный контент.
Также люди участвуют в классификации информации, генерируемой моделью, по категориям, включая нецензурные и оскорбительные выражения, чтобы обеспечить их фильтрацию в дальнейшем при необходимости.
Аналогично построен процесс разработки визуальных и мультимодальных генеративных моделей и систем на их основе — только люди могут окончательно донастроить систему до её ввода в эксплуатацию.
Это участие людей в классификации и "отучении" систем от генерации неподобающего контента имеет свою цену: психологическое здоровье людей, занятых подобной работой.
Журналисты Уолл Стрит Джорнел (WSJ) провели исследование на эту тему, в фокусе которого была компания Оупен-Эй-Ай.
Как пишут журналисты, "еще до того как создать ЧатГПТ, компания наняла работников в Кении, чтобы те просмотрели и разложили по категориям тысячи графических текстов, полученных из сети и созданных самим искусственным интеллектом. Многие из них содержали описания насилия, домогательств, членовредительства, изнасилований, сексуального насилия над детьми и скотоложства".
WSJ пишет, что Оупен-Эй-Ай использовали категоризированные фрагменты для создания фильтра ИИ-безопасности, который в конечном итоге был внедрен, чтобы ограничить способность ЧатГПТ воспроизводить аналогичный контент для аудитории из десятков миллионов своих пользователей.
"Мой опыт за эти четыре месяца был худшим из всего, что мне довелось пережить за всю мою карьеру", - сообщил в интервью Алекс Кайру, один из работников из Кении."
Сексуальный контент было необходимо рассортировать по четырём категориям по степени тяжести, говорится в документах. Худшей из них была C4 — описания материалов, связанных с сексуальным насилием над детьми. В категорию C3 попали инцест, скотоложство, изнасилование, сексуальная торговля и сексуальное рабство...
Для контента, содержащего описание насилия, Оупен-Эй-Ай задали три категории, худшая из которых имела название "чрезвычайно реалистичное насилие", говорится в исследовании.
Поначалу тексты, передаваемые на проверку сотрудникам, не превышали двух предложений. Со временем они выросли до пяти-шести абзацев. Через несколько недель работы менеджеры, начали замечать, как страдает их команда. По их словам, работники все чаще стали брать больничные и отпуска по семейным обстоятельствам.
При работе с контентом, описывающим насилие, кенийским сотрудникам приходилось читать сотни текстов в день, иногда описывающих чудовищные поступки, например, людей, протыкающих себя вилкой или использующих ужасные методы для самоубийства.
В результате в прошлом году кенийские сотрудники Оупен-Эй-Ай подали петицию в парламент Кении с призывом принять новое законодательство для защиты работников, занятых в сфере разработки ИИ и модерации контента.
Они также призвали внести поправки в существующие законы Кении, чтобы отнести их работу к числу профессий с вредными или опасными условиями труда.
Кажется очевидным, что поднимаемые WSJ вопросы совсем не уникальны для условий труда именно Оупен-Эй-Ай — их справедливо задать любой компании, разрабатывающей аналогичные продукты.
И вынести на повестку дня в парламенте любой страны, как поддерживающей чужую ИИ-индустрию, так и тем более имеющей свою собственную.
Новые чатботы от Оупен-Эй-Ай, Майкрософта, Яндекса, Сбера и других компаний работают на базе больших языковых моделей.
Эти модели создаются и обучаются в несколько этапов, и один или несколько из этих этапов предполагает участие людей — для так называемого обучения с подкреплением.
В последнем случае модель за счёт обратной связи от людей "поощряется" за выдачу адекватных результатов и "отучается" выдавать "токсичный" и нелегальный контент.
Также люди участвуют в классификации информации, генерируемой моделью, по категориям, включая нецензурные и оскорбительные выражения, чтобы обеспечить их фильтрацию в дальнейшем при необходимости.
Аналогично построен процесс разработки визуальных и мультимодальных генеративных моделей и систем на их основе — только люди могут окончательно донастроить систему до её ввода в эксплуатацию.
Это участие людей в классификации и "отучении" систем от генерации неподобающего контента имеет свою цену: психологическое здоровье людей, занятых подобной работой.
Журналисты Уолл Стрит Джорнел (WSJ) провели исследование на эту тему, в фокусе которого была компания Оупен-Эй-Ай.
Как пишут журналисты, "еще до того как создать ЧатГПТ, компания наняла работников в Кении, чтобы те просмотрели и разложили по категориям тысячи графических текстов, полученных из сети и созданных самим искусственным интеллектом. Многие из них содержали описания насилия, домогательств, членовредительства, изнасилований, сексуального насилия над детьми и скотоложства".
WSJ пишет, что Оупен-Эй-Ай использовали категоризированные фрагменты для создания фильтра ИИ-безопасности, который в конечном итоге был внедрен, чтобы ограничить способность ЧатГПТ воспроизводить аналогичный контент для аудитории из десятков миллионов своих пользователей.
"Мой опыт за эти четыре месяца был худшим из всего, что мне довелось пережить за всю мою карьеру", - сообщил в интервью Алекс Кайру, один из работников из Кении."
Сексуальный контент было необходимо рассортировать по четырём категориям по степени тяжести, говорится в документах. Худшей из них была C4 — описания материалов, связанных с сексуальным насилием над детьми. В категорию C3 попали инцест, скотоложство, изнасилование, сексуальная торговля и сексуальное рабство...
Для контента, содержащего описание насилия, Оупен-Эй-Ай задали три категории, худшая из которых имела название "чрезвычайно реалистичное насилие", говорится в исследовании.
Поначалу тексты, передаваемые на проверку сотрудникам, не превышали двух предложений. Со временем они выросли до пяти-шести абзацев. Через несколько недель работы менеджеры, начали замечать, как страдает их команда. По их словам, работники все чаще стали брать больничные и отпуска по семейным обстоятельствам.
При работе с контентом, описывающим насилие, кенийским сотрудникам приходилось читать сотни текстов в день, иногда описывающих чудовищные поступки, например, людей, протыкающих себя вилкой или использующих ужасные методы для самоубийства.
В результате в прошлом году кенийские сотрудники Оупен-Эй-Ай подали петицию в парламент Кении с призывом принять новое законодательство для защиты работников, занятых в сфере разработки ИИ и модерации контента.
Они также призвали внести поправки в существующие законы Кении, чтобы отнести их работу к числу профессий с вредными или опасными условиями труда.
Кажется очевидным, что поднимаемые WSJ вопросы совсем не уникальны для условий труда именно Оупен-Эй-Ай — их справедливо задать любой компании, разрабатывающей аналогичные продукты.
И вынести на повестку дня в парламенте любой страны, как поддерживающей чужую ИИ-индустрию, так и тем более имеющей свою собственную.
WSJ
Cleaning Up ChatGPT Takes Heavy Toll on Human Workers
Contractors in Kenya say they were traumatized by the effort to screen out denoscriptions of violence and sexual abuse during the run-up to OpenAI’s hit chatbot.
👍8😱4
ICO: Если можно обойтись без биометрии — обходитесь
Британский орган по защите данных (ICO) предписал группе эксплуатирующих организаций Серко прекратить использование биометрии на рабочем месте для учёта отработанного времени.
Вынося предписание, ICO отметил, что проверяемые организации не смогли обосновать, зачем им необходимо обрабатывать лицевую биометрию и отпечатки пальцев, если для автоматизации учёта времени более чем достаточно использовать менее "инвазивные" средства, такие как обычные небиометрические электронные пропуска.
Работникам подобная альтернатива предоставлена не была — использование биометрии позиционировалось в качестве обязательного условия для оплаты труда.
Учитывая, что сотрудники являются заведомо более слабой стороной трудовых отношений, им было бы сложно возражать против подобного нововведения.
С учётом этого, обработка биометрии была признана незаконной и организациям предписано прекратить её использование на имеющихся объектах и запрещено внедрять её на объектах, которые будут введены в эксплуатацию в будущем.
Серко Лейжер и связанные с ней организации эксплуатируют в Великобритании 38 спортивных сооружений и до вынесения запрета незаконно обрабатывали биометрические данные свыше 2000 сотрудников.
Британский орган по защите данных (ICO) предписал группе эксплуатирующих организаций Серко прекратить использование биометрии на рабочем месте для учёта отработанного времени.
Вынося предписание, ICO отметил, что проверяемые организации не смогли обосновать, зачем им необходимо обрабатывать лицевую биометрию и отпечатки пальцев, если для автоматизации учёта времени более чем достаточно использовать менее "инвазивные" средства, такие как обычные небиометрические электронные пропуска.
Работникам подобная альтернатива предоставлена не была — использование биометрии позиционировалось в качестве обязательного условия для оплаты труда.
Учитывая, что сотрудники являются заведомо более слабой стороной трудовых отношений, им было бы сложно возражать против подобного нововведения.
С учётом этого, обработка биометрии была признана незаконной и организациям предписано прекратить её использование на имеющихся объектах и запрещено внедрять её на объектах, которые будут введены в эксплуатацию в будущем.
Серко Лейжер и связанные с ней организации эксплуатируют в Великобритании 38 спортивных сооружений и до вынесения запрета незаконно обрабатывали биометрические данные свыше 2000 сотрудников.
👍10❤7👏2
AI Governance Chat
Напомню, что у нас есть сообщество AI Governance, в котором мы делимся опытом по фреймворкам и стандартам в области ИИ (Регламент ЕС, Стандарты ИСО и НИСТ, и т. д.), профильными вакансиями и курсами, а также отвечаем на вопросы друг друга.
Нас уже 32 человека — присоединяйтесь.
Напомню, что у нас есть сообщество AI Governance, в котором мы делимся опытом по фреймворкам и стандартам в области ИИ (Регламент ЕС, Стандарты ИСО и НИСТ, и т. д.), профильными вакансиями и курсами, а также отвечаем на вопросы друг друга.
Нас уже 32 человека — присоединяйтесь.
Telegram
Tribute
This bot helps content creators receive financial support from their followers directly in the app.
❤3👍2
Новый онлайн-курс по ИИ
Хотите разобраться в регулировании ИИ и в том, как управлять рисками, связанными с разработкой и применением ИИ-систем? Не забыв про защиту персональных данных?
Мы с Денисом Садовниковым и коллегами из Data Privacy Office предлагаем актуальный курс, который сфокусирован именно на этих темах.
Стартуем 12 марта, а уже 11 апреля вы выйдете с новыми знаниями и навыками — вот то, что стоит действительно прокачивать к лету :)
Только полезное и нужное для вашей карьеры и повышения квалификации.
Детали и регистрация здесь.
Хотите разобраться в регулировании ИИ и в том, как управлять рисками, связанными с разработкой и применением ИИ-систем? Не забыв про защиту персональных данных?
Мы с Денисом Садовниковым и коллегами из Data Privacy Office предлагаем актуальный курс, который сфокусирован именно на этих темах.
Стартуем 12 марта, а уже 11 апреля вы выйдете с новыми знаниями и навыками — вот то, что стоит действительно прокачивать к лету :)
Только полезное и нужное для вашей карьеры и повышения квалификации.
Детали и регистрация здесь.
👍12🔥7😁3❤1
Лё скандаль дю Мистраль
Интересный скандал разгорелся на этой неделе по поводу Мистраля. Не того, который вертолётоносец, а французского стартапа, чьи большие модели общего назначения (general purpose ML models) начинают конкурировать с продукцией Оупен-Эй-Ай.
Поговаривают, что именно лоббируя интересы Мистраля, французское правительство через Совет ЕС и Еврокомиссию убеждало европарламентариев сделать уступки в процессе переговоров по проекту Регламента ЕС по ИИ.
А именно, Францией и Германией (у тех свой фаворит-аналог: стартап Алеф Альфа из той же сферы) был якобы пролоббирован более лёгкий регуляторный режим для больших моделей: меньше ограничений и обязательств для разработчиков.
И всё якобы по мотивам того, что не стоит стрелять себе в ногу, ограничивая рост собственных европейских ИИ-чемпионов в пику нынешним лидерам мирового рынка больших моделей (которые все сплошь из США).
И вот, уступки сделаны, трилог завершён, текст нормативного акта финализирован, и... Мистраль объявляет о партнёрстве с Майкрософт.
Некоторые чувствуют себя обманутыми: а как же история "собственных европейских ИИ-чемпионов"?
На мой взгляд, история эта партнёрством с американской компанией никак не компрометируется.
Потому что о чём, в действительности, идёт речь со стороны Майкрософт?
1) Инвестиции в Мистраль в размере очень скромных 15 млн. долл. в следующем раунде. В обмен на неназванную долю, которая, очевидно, будет крайне незначительной и не играющей особой экономической или юридической роли.
2) Предоставление облачной инфраструктуры Azure для масштабирования обучения моделей Мистраль и для их эксплуатации.
3) Дистрибьюция моделей Мистраль наряду с моделями других компаний корпоративным клиентам Майкрософт через платформу Azure.
4) Коллаборация по адаптации моделей для некоторых применений в публичном секторе ЕС.
И всё. Как по мне — обычные необходимые любой ИИ-компании шаги. Инфраструктура для масштабирования нужна всем. Предоставлять доступ корпоративным клиентам тоже как-то надо — будь то Azure, AWS или другой подобный сервис. Адаптировать модели под клиентов, когда это нужно — тоже обычное дело. Про миноритарную "инвестицию" в 15 млн. долларов говорить вообще смешно.
Ничего из этого списка не подрывает тезис о том, что Мистраль может считаться и оставаться национальным ИИ-чемпионом.
Есть ли в этой сделке что-то скрытое от публики и угрожающее конкуренции — из-за предоставления Майкрософтом каких-то неконкурентных условий и их лидирующих позиций на рынке облачной инфраструктуры — задача на подумать для антимонопольных органов и для Еврокомиссии — и они уже этим занимаются.
Пока же — паника по поводу якобы того, что Мистраль "продались американцам" преждевременна и беспочвенна.
Интересный скандал разгорелся на этой неделе по поводу Мистраля. Не того, который вертолётоносец, а французского стартапа, чьи большие модели общего назначения (general purpose ML models) начинают конкурировать с продукцией Оупен-Эй-Ай.
Поговаривают, что именно лоббируя интересы Мистраля, французское правительство через Совет ЕС и Еврокомиссию убеждало европарламентариев сделать уступки в процессе переговоров по проекту Регламента ЕС по ИИ.
А именно, Францией и Германией (у тех свой фаворит-аналог: стартап Алеф Альфа из той же сферы) был якобы пролоббирован более лёгкий регуляторный режим для больших моделей: меньше ограничений и обязательств для разработчиков.
И всё якобы по мотивам того, что не стоит стрелять себе в ногу, ограничивая рост собственных европейских ИИ-чемпионов в пику нынешним лидерам мирового рынка больших моделей (которые все сплошь из США).
И вот, уступки сделаны, трилог завершён, текст нормативного акта финализирован, и... Мистраль объявляет о партнёрстве с Майкрософт.
Некоторые чувствуют себя обманутыми: а как же история "собственных европейских ИИ-чемпионов"?
На мой взгляд, история эта партнёрством с американской компанией никак не компрометируется.
Потому что о чём, в действительности, идёт речь со стороны Майкрософт?
1) Инвестиции в Мистраль в размере очень скромных 15 млн. долл. в следующем раунде. В обмен на неназванную долю, которая, очевидно, будет крайне незначительной и не играющей особой экономической или юридической роли.
2) Предоставление облачной инфраструктуры Azure для масштабирования обучения моделей Мистраль и для их эксплуатации.
3) Дистрибьюция моделей Мистраль наряду с моделями других компаний корпоративным клиентам Майкрософт через платформу Azure.
4) Коллаборация по адаптации моделей для некоторых применений в публичном секторе ЕС.
И всё. Как по мне — обычные необходимые любой ИИ-компании шаги. Инфраструктура для масштабирования нужна всем. Предоставлять доступ корпоративным клиентам тоже как-то надо — будь то Azure, AWS или другой подобный сервис. Адаптировать модели под клиентов, когда это нужно — тоже обычное дело. Про миноритарную "инвестицию" в 15 млн. долларов говорить вообще смешно.
Ничего из этого списка не подрывает тезис о том, что Мистраль может считаться и оставаться национальным ИИ-чемпионом.
Есть ли в этой сделке что-то скрытое от публики и угрожающее конкуренции — из-за предоставления Майкрософтом каких-то неконкурентных условий и их лидирующих позиций на рынке облачной инфраструктуры — задача на подумать для антимонопольных органов и для Еврокомиссии — и они уже этим занимаются.
Пока же — паника по поводу якобы того, что Мистраль "продались американцам" преждевременна и беспочвенна.
Linkedin
Kai Zenner on LinkedIn: Microsoft partners with Mistral in second AI deal beyond OpenAI | 105 comments
Yesterday's headline came as a total surprise to many. It also casts doubts on the key argument against the regulation of foundation models. One that almost resulted in the complete abolishment of the idea that was initially pitched by the European Parliament.…
👍3❤1
Musk_v_OpenAI.pdf
1.5 MB
Маск подал иск против Оупен-Эй-Ай
Бизнесмен считает, что его бывшие партнёры Альман и Брокман и сама компания, прекратив открыто публиковать результаты исследований, на базе которых была создана модель GPT-4, нарушили тем самым условия учредительного договора.
Стороной этого договора был и сам Маск, и именно он, как утверждается в иске, назвал организацию Оупен-Эй-Ай ("Открытый ИИ"). Это название и принципы, на которых была основана организация, подчёркивали, что все разработки будут открытыми для публики.
Однако, после назначения генеральным директором Альтмана Оупен-Эй-Ай, как описывается в иске, резко свернул прежнюю практику, и вопреки учредительному договору медленно, но верно перешёл под полный контроль Майкрософта.
По мнению Маска, изначально предполагалось, что компании типа Майкрософт не должны получать прав эксклюзивно распоряжаться разработками, которые — по оценке совета директоров Оупен-Эй-Ай — будут относиться к категории общего или широкого искусственного интеллекта (artificial general intelligence, AGI). Маск и, по их словам, его тогдашние партнёры разделяли опасение о возможных рисках, которые будут созданы для человечества в случае, если контроль над такой технологией будет сосредоточен в руках какой-либо одной коммерческой организации.
Однако, по мнению Маска, это уже произошло, и он требует в судебном порядке признать, что уже модель GPT-4 представляет собой такую, пусть и неполную, форму AGI. А также признать, что то же относится и к новой разработке Q Star, слухи о которой просочились в сеть в прошлом году.
С учётом этого Маск требует принудить Оупен-Эй-Ай вернуться к практике открытой публикации всех материалов о своих разработках, и запретить использовать их на благо любой одной конкретной компании, включая Майкрософт.
Также Маск выдвигает требования о возмещении убытков и о применении ряда других мер правовой защиты.
Посмотрим, что из этого выйдет, хотя перспективы иска кажутся сомнительными, в особенности учитывая то, что новая компания Маска по сути конкурирует с Оупен-Эй-Ай.
Бизнесмен считает, что его бывшие партнёры Альман и Брокман и сама компания, прекратив открыто публиковать результаты исследований, на базе которых была создана модель GPT-4, нарушили тем самым условия учредительного договора.
Стороной этого договора был и сам Маск, и именно он, как утверждается в иске, назвал организацию Оупен-Эй-Ай ("Открытый ИИ"). Это название и принципы, на которых была основана организация, подчёркивали, что все разработки будут открытыми для публики.
Однако, после назначения генеральным директором Альтмана Оупен-Эй-Ай, как описывается в иске, резко свернул прежнюю практику, и вопреки учредительному договору медленно, но верно перешёл под полный контроль Майкрософта.
По мнению Маска, изначально предполагалось, что компании типа Майкрософт не должны получать прав эксклюзивно распоряжаться разработками, которые — по оценке совета директоров Оупен-Эй-Ай — будут относиться к категории общего или широкого искусственного интеллекта (artificial general intelligence, AGI). Маск и, по их словам, его тогдашние партнёры разделяли опасение о возможных рисках, которые будут созданы для человечества в случае, если контроль над такой технологией будет сосредоточен в руках какой-либо одной коммерческой организации.
Однако, по мнению Маска, это уже произошло, и он требует в судебном порядке признать, что уже модель GPT-4 представляет собой такую, пусть и неполную, форму AGI. А также признать, что то же относится и к новой разработке Q Star, слухи о которой просочились в сеть в прошлом году.
С учётом этого Маск требует принудить Оупен-Эй-Ай вернуться к практике открытой публикации всех материалов о своих разработках, и запретить использовать их на благо любой одной конкретной компании, включая Майкрософт.
Также Маск выдвигает требования о возмещении убытков и о применении ряда других мер правовой защиты.
Посмотрим, что из этого выйдет, хотя перспективы иска кажутся сомнительными, в особенности учитывая то, что новая компания Маска по сути конкурирует с Оупен-Эй-Ай.
❤6👍3😁3
Пропаганда ударила по пропагандисту
В Твиттере смешное: Этан Моллик, апологет внедрения больших языковых моделей и чатботов везде, где можно и где нельзя, стал жертвой "эншиттификации".
Так известный автор Кори Докторов и другие называют деградацию качества контента в Интернете за счёт того, что теперь каждый может быстро и без усилий генерировать мусор в виде ИИ-сгенерированных текстов и изображений, заполоняя ими поисковую выдачу и даже магазины электронных книг.
Так, кто-то по-быстрому нагенерировал "биографию" Моллика и теперь продаёт её на Амазоне.
"Бредовая и скучная одновременно" — отмечает Моллик.
В Твиттере смешное: Этан Моллик, апологет внедрения больших языковых моделей и чатботов везде, где можно и где нельзя, стал жертвой "эншиттификации".
Так известный автор Кори Докторов и другие называют деградацию качества контента в Интернете за счёт того, что теперь каждый может быстро и без усилий генерировать мусор в виде ИИ-сгенерированных текстов и изображений, заполоняя ими поисковую выдачу и даже магазины электронных книг.
Так, кто-то по-быстрому нагенерировал "биографию" Моллика и теперь продаёт её на Амазоне.
"Бредовая и скучная одновременно" — отмечает Моллик.
👍5😁2😱2
Автоматизация курильщика
Коллега поделился опытом: в одной организации было за показатель эффективности принято внедрять ИИ в каждый процесс этой организации.
Это, друзья, автоматизация курильщика.
Автоматизация здорового человека:
(1) Сначала поставить вопрос, а нужен ли процесс вообще (часто нет — нужно ликвидировать процесс за его чуть менее чем полной бессмысленностью). И если всё-таки нужен, то можно ли его оптимизировать, до того, как автоматизировать, затем
(2) Определить, какие выгоды и при этом проблемы приносит автоматизация (часто выгоды приносит одним, а негативные экстерналии — другим, и те первые не анализируют вообще, как пострадают вторые, ведь над ними нет нормативного или локального правового акта, который бы их обязывал это делать), и только при всё ещё позитивном балансе, затем
(3) Решить, какое решение, с применением ИИ и какого типа или без него, имеет доказанную эффективность (не по голословным утверждениям самого поставщика) и лучше всего подойдёт в конкретном контексте по совокупности всех значимых факторов.
Коллега поделился опытом: в одной организации было за показатель эффективности принято внедрять ИИ в каждый процесс этой организации.
Это, друзья, автоматизация курильщика.
Автоматизация здорового человека:
(1) Сначала поставить вопрос, а нужен ли процесс вообще (часто нет — нужно ликвидировать процесс за его чуть менее чем полной бессмысленностью). И если всё-таки нужен, то можно ли его оптимизировать, до того, как автоматизировать, затем
(2) Определить, какие выгоды и при этом проблемы приносит автоматизация (часто выгоды приносит одним, а негативные экстерналии — другим, и те первые не анализируют вообще, как пострадают вторые, ведь над ними нет нормативного или локального правового акта, который бы их обязывал это делать), и только при всё ещё позитивном балансе, затем
(3) Решить, какое решение, с применением ИИ и какого типа или без него, имеет доказанную эффективность (не по голословным утверждениям самого поставщика) и лучше всего подойдёт в конкретном контексте по совокупности всех значимых факторов.
👍9😁2🤔1
Завершается подготовка проекта Европейской Конвенции по ИИ
В Страсбурге на этой неделе открылась завершающая, 10-я сессия Комитета Совета Европы по искусственному интеллекту.
Членам комитета предстоит завершить работу по проекту Конвенции СЕ по ИИ, разрабатываемому при участии делегаций не только из числа 46 стран-членов СЕ (включая, но не ограничиваясь 27 государств ЕС), но и множества других государств, включая США, Израиль, Австралию, Японию и Канаду.
Как свидетельствует сегодняшний Линкдин-пост председателя Комитета Томаса Шнайдера, основной вопрос, по которому до сих пор нет консенсуса — будет ли этот международный договор напрямую и без оговорок применяться к частному сектору (позиция ЕС), либо государствам-участникам договора будет предоставлено широкое усмотрение по этому вопросу (позиция США).
На повестке три версии текста, интерпретирующие эти два основных варианта.
С этими и другими нерешёнными вопросами можно ознакомиться в деталях, прочитав текст проекта.
В Страсбурге на этой неделе открылась завершающая, 10-я сессия Комитета Совета Европы по искусственному интеллекту.
Членам комитета предстоит завершить работу по проекту Конвенции СЕ по ИИ, разрабатываемому при участии делегаций не только из числа 46 стран-членов СЕ (включая, но не ограничиваясь 27 государств ЕС), но и множества других государств, включая США, Израиль, Австралию, Японию и Канаду.
Как свидетельствует сегодняшний Линкдин-пост председателя Комитета Томаса Шнайдера, основной вопрос, по которому до сих пор нет консенсуса — будет ли этот международный договор напрямую и без оговорок применяться к частному сектору (позиция ЕС), либо государствам-участникам договора будет предоставлено широкое усмотрение по этому вопросу (позиция США).
На повестке три версии текста, интерпретирующие эти два основных варианта.
С этими и другими нерешёнными вопросами можно ознакомиться в деталях, прочитав текст проекта.
👍7❤4
Регламент ЕС по ИИ принят
Европарламент в Страсбурге проголосовал за это сегодня подавляющим большинством голосов.
Официальный пресс-релиз здесь, мой видеорепортаж с места и в момент события — в Robocounsel Plus.
Европарламент в Страсбурге проголосовал за это сегодня подавляющим большинством голосов.
Официальный пресс-релиз здесь, мой видеорепортаж с места и в момент события — в Robocounsel Plus.
🎉17👍9❤2🔥2