Вы используете большие языковые модели или продукты на их основе (GPT-4, ChatGPT, Bing, Bard, и т.п.)?
В комментариях поделитесь, для каких именно задач.
В комментариях поделитесь, для каких именно задач.
Anonymous Poll
21%
Да, в том числе в работе, за которую платят деньги
14%
В оплачиваемой работе нет, но для серьёзных личных задач — да
31%
Только для развлечения
35%
Не использую вовсе
CIPP/E — ваш пропуск для работы с персональными данными в Европе
А у меня отличные новости — полку сертифицированных по CIPP/E специалистов по работе с персональными данными прибыло. Моя подписчица Ксения успешно сдала экзамен, и написала мне сегодня:
"Александр, добрый день! Спасибо еще раз за гайд по подготовке к CIPP/E, очень помог!)"
Если вы тоже задумываетесь над тем, чтобы сертифицироваться как эксперт по европейскому регулированию персональных данных и улучшить свои карьерные перспективы — приобретайте доступ к моему руководству сейчас.
До конца марта оно было доступно по старой цене. С 1 апреля цена составляет 3000 рублей. Приобрести можно здесь.
А у меня отличные новости — полку сертифицированных по CIPP/E специалистов по работе с персональными данными прибыло. Моя подписчица Ксения успешно сдала экзамен, и написала мне сегодня:
"Александр, добрый день! Спасибо еще раз за гайд по подготовке к CIPP/E, очень помог!)"
Если вы тоже задумываетесь над тем, чтобы сертифицироваться как эксперт по европейскому регулированию персональных данных и улучшить свои карьерные перспективы — приобретайте доступ к моему руководству сейчас.
До конца марта оно было доступно по старой цене. С 1 апреля цена составляет 3000 рублей. Приобрести можно здесь.
❤7🔥3👍1
Почему призыв остановить разработку новых языковых моделей не имеет смысла
Вы могли заметить, что недавно появилось письмо с призывом на полгода заморозить "гонку ИИ-вооружений" — приостановить разработку больших языковых моделей более сложных, чем ГПТ-4. Письмо подписано многими известными людьми, хотя чуть позже стало известно, что некоторые подписанты — фейковые.
Некоторые коллеги поспешили провозгласить это письмо знаковым событием. Они отметили, что поставленные в письме проблемы: риски замены всех людей на ИИ на рабочих местах, риски "утраты контроля за нашей цивилизацией" — это якобы важные вопросы "этического регулирования" ИИ.
В действительности же это письмо — скорее вредно, чем полезно. Моё мнение здесь совпадает с мнением коллег, опрошенных при подготовке этой статьи.
Прежде всего, письмо переключает общественное внимание с реально существующих и важных прямо сейчас проблем с ИИ на футуристические.
Тут уместно сравнение с заезженной псевдопроблемой вагонетки. Люди, не разбирающиеся в настоящей этике ИИ (работе в этических комитетах), часто приводят её в пример как якобы реальную проблему, которую должен решать автономный автомобиль: кого убивать, а кого спасать в случае столкновений на дороге.
В то время, как настоящие автономные автомобили проектируются так, чтобы они просто стремились избегать столкновения (collision avoidance).
Никакой инженер в здравом уме не будет закладывать в автомобиль алгоритм выбора цели столкновения (targeting algorithm), потому что это превратило бы гражданский автомобиль в оружие, а его применение в невоенных целях приводило бы к уголовной ответственности для всех причастных, включая инженера.
Равным образом, письмо об остановке разработки систем "мощнее ГПТ-4" игнорирует очевидные проблемы, которые представляет бесконтрольные разработка и применение уже существующих систем, типа самой ГПТ-4 и её предшественников.
Сами разработчики не вполне представляют в деталях, как именно эти — уже существующие системы — решают задачи.
Не решена проблема выдачи недостоверной информации. Проблема управления рисками нерепрезентативности выборок, на которых обучают системы. Проблема риск-менеджмента на стороне разработчиков. Проблема адекватных критериев для закупки таких систем. Проблема адекватных правил и процедур их применения на стороне клиентов, которые эти системы начинают эксплуатировать.
Не адресуется ни одна из реальных проблем, которые я буду разбирать на своих вебинарах, и для которых я описываю реальные механизмы их решения.
Потому что обществу и бизнесу нужны реальные решения реальных проблем с разработкой и внедрением систем ИИ, а не бессмысленные призывы к приостановке их разработки и увод в сторону под прикрытием тезисов из научной фантастики.
Вы могли заметить, что недавно появилось письмо с призывом на полгода заморозить "гонку ИИ-вооружений" — приостановить разработку больших языковых моделей более сложных, чем ГПТ-4. Письмо подписано многими известными людьми, хотя чуть позже стало известно, что некоторые подписанты — фейковые.
Некоторые коллеги поспешили провозгласить это письмо знаковым событием. Они отметили, что поставленные в письме проблемы: риски замены всех людей на ИИ на рабочих местах, риски "утраты контроля за нашей цивилизацией" — это якобы важные вопросы "этического регулирования" ИИ.
В действительности же это письмо — скорее вредно, чем полезно. Моё мнение здесь совпадает с мнением коллег, опрошенных при подготовке этой статьи.
Прежде всего, письмо переключает общественное внимание с реально существующих и важных прямо сейчас проблем с ИИ на футуристические.
Тут уместно сравнение с заезженной псевдопроблемой вагонетки. Люди, не разбирающиеся в настоящей этике ИИ (работе в этических комитетах), часто приводят её в пример как якобы реальную проблему, которую должен решать автономный автомобиль: кого убивать, а кого спасать в случае столкновений на дороге.
В то время, как настоящие автономные автомобили проектируются так, чтобы они просто стремились избегать столкновения (collision avoidance).
Никакой инженер в здравом уме не будет закладывать в автомобиль алгоритм выбора цели столкновения (targeting algorithm), потому что это превратило бы гражданский автомобиль в оружие, а его применение в невоенных целях приводило бы к уголовной ответственности для всех причастных, включая инженера.
Равным образом, письмо об остановке разработки систем "мощнее ГПТ-4" игнорирует очевидные проблемы, которые представляет бесконтрольные разработка и применение уже существующих систем, типа самой ГПТ-4 и её предшественников.
Сами разработчики не вполне представляют в деталях, как именно эти — уже существующие системы — решают задачи.
Не решена проблема выдачи недостоверной информации. Проблема управления рисками нерепрезентативности выборок, на которых обучают системы. Проблема риск-менеджмента на стороне разработчиков. Проблема адекватных критериев для закупки таких систем. Проблема адекватных правил и процедур их применения на стороне клиентов, которые эти системы начинают эксплуатировать.
Не адресуется ни одна из реальных проблем, которые я буду разбирать на своих вебинарах, и для которых я описываю реальные механизмы их решения.
Потому что обществу и бизнесу нужны реальные решения реальных проблем с разработкой и внедрением систем ИИ, а не бессмысленные призывы к приостановке их разработки и увод в сторону под прикрытием тезисов из научной фантастики.
VICE
The Open Letter to Stop 'Dangerous' AI Race Is a Huge Mess
The letter has been signed by Elon Musk, Steve Wozniak, Andrew Yang, and leading AI researchers, but many experts and even signatories disagreed.
👍14❤1🤔1
PRESS-CAIDP-OpenAI-FTC-Complaint.pdf
605.5 KB
ОпенЭйАй подозревают в нарушении прав потребителей
Американская некоммерческая организация (НКО) "Центр по ИИ и цифровой политике" подала жалобу на компанию в Федеральную торговую комиссию (ФТК) США. В жалобе утверждается, что ОпенЭйАй при выводе на рынок продукта ГПТ-4 нарушила руководящие документы ФТК и требования федерального законодательства о защите прав потребителей.
Ссылаясь на карточку продукта, опубликованную самой компанией, НКО утверждает, что компания вводит потребителей в заблуждение, а продукт имеет множественные недостатки, в том числе в части кибербезопасности, и представляет угрозу для неприкосновенности частной жизни и общественной безопасности.
В связи с этим заявитель просит открыть в отношении ОпенЭйАй расследование и приостановить обращение её продуктов на рынке.
Американская некоммерческая организация (НКО) "Центр по ИИ и цифровой политике" подала жалобу на компанию в Федеральную торговую комиссию (ФТК) США. В жалобе утверждается, что ОпенЭйАй при выводе на рынок продукта ГПТ-4 нарушила руководящие документы ФТК и требования федерального законодательства о защите прав потребителей.
Ссылаясь на карточку продукта, опубликованную самой компанией, НКО утверждает, что компания вводит потребителей в заблуждение, а продукт имеет множественные недостатки, в том числе в части кибербезопасности, и представляет угрозу для неприкосновенности частной жизни и общественной безопасности.
В связи с этим заявитель просит открыть в отношении ОпенЭйАй расследование и приостановить обращение её продуктов на рынке.
👍5🤔3
Вперёд в прошлое: "демократизация" ИИ, которой не произошло
Какая ирония! 2016 год, Альтман (гендиректор ОпенЭйАй) берёт интервью у Маска (тогда сооснователя). И задаёт ему вопрос про развитие ИИ.
Маск отвечает (11:41), что основной риск в том, что разработка ведущих ИИ-продуктов будет монополизирована лидерами рынка. Именно поэтому нужно движение в обратную сторону: "демократизация" доступа к разработкам в области ИИ.
Это, как вы понимаете, было одним из мотивов создания ОпенЭйАй... превратившегося нынче в одного из тех самых монополистов-лидеров рынка, закрывшего от публики и исследователей свою новейшую разработку тотчас же после появления реальных перспектив её монетизации.
Какая ирония! 2016 год, Альтман (гендиректор ОпенЭйАй) берёт интервью у Маска (тогда сооснователя). И задаёт ему вопрос про развитие ИИ.
Маск отвечает (11:41), что основной риск в том, что разработка ведущих ИИ-продуктов будет монополизирована лидерами рынка. Именно поэтому нужно движение в обратную сторону: "демократизация" доступа к разработкам в области ИИ.
Это, как вы понимаете, было одним из мотивов создания ОпенЭйАй... превратившегося нынче в одного из тех самых монополистов-лидеров рынка, закрывшего от публики и исследователей свою новейшую разработку тотчас же после появления реальных перспектив её монетизации.
YouTube
Elon Musk Interview with Sam Altman (2016.9.15)
Published on Sep 15, 2016Elon Musk talks with Sam Altman about his view of the future and what people should work on.
Overview:
00:00. Five biggest problems to tackle
05:00. How to be useful
08:02. Overcoming fear
09:42. Colonising Mars
11:04. AI concerns…
Overview:
00:00. Five biggest problems to tackle
05:00. How to be useful
08:02. Overcoming fear
09:42. Colonising Mars
11:04. AI concerns…
👍10
Robocounsel
Почему призыв остановить разработку новых языковых моделей не имеет смысла Вы могли заметить, что недавно появилось письмо с призывом на полгода заморозить "гонку ИИ-вооружений" — приостановить разработку больших языковых моделей более сложных, чем ГПТ-4.…
Давайте пока не будем бомбить ЦОДы
Письмом Future of Life с призывом на полугодовой (как минимум) глобальный мораторий на разработку новых ИИ-систем "мощнее ГПТ-4" дело не окончилось.
Со своей, ещё более радикальной позицией выступил и господин Юдковский.
Переквалифицировавшись (я надеюсь, временно) из специалиста по ИИ-безопасности в эксперта по глобальной политике и вооружениям, господин Юдковский призвал срочно закрепить тот же мораторий на международном уровне и под угрозой бомбардировок любых центров обработки данных, где будет замечено обучение человековраждебного ИИ.
При этом он подчеркнул, что от таких ударов нельзя отказываться даже если страна, в которой это происходит, будет готова нанести ответный ядерный удар по "защитникам человечества". Потому что защита от ИИ важнее.
С учётом такого накала страстей было невозможно не написать статью.
Письмом Future of Life с призывом на полугодовой (как минимум) глобальный мораторий на разработку новых ИИ-систем "мощнее ГПТ-4" дело не окончилось.
Со своей, ещё более радикальной позицией выступил и господин Юдковский.
Переквалифицировавшись (я надеюсь, временно) из специалиста по ИИ-безопасности в эксперта по глобальной политике и вооружениям, господин Юдковский призвал срочно закрепить тот же мораторий на международном уровне и под угрозой бомбардировок любых центров обработки данных, где будет замечено обучение человековраждебного ИИ.
При этом он подчеркнул, что от таких ударов нельзя отказываться даже если страна, в которой это происходит, будет готова нанести ответный ядерный удар по "защитникам человечества". Потому что защита от ИИ важнее.
С учётом такого накала страстей было невозможно не написать статью.
Linkedin
Let’s not bomb those AI data centres just yet
Last work week has been heavy with news about artificial intelligence risks and their management, sometimes with unconventional means, such as military force. Do the newsmakers and commentators make sense? Let’s see.
😁6🤔2
Robocounsel
CIPP/E — ваш пропуск для работы с персональными данными в Европе А у меня отличные новости — полку сертифицированных по CIPP/E специалистов по работе с персональными данными прибыло. Моя подписчица Ксения успешно сдала экзамен, и написала мне сегодня: "Александр…
Кто не успел, тот ещё может успеть
Хотя с 1 апреля цена доступа к руководству по подготовке к CIPP/E увеличилась до 3000 рублей, вы ещё можете сэкономить. Обратитесь к своим знакомым — всем, кто уже приобрёл руководство, я по запросу выдаю личные промокоды на скидку для их знакомых и друзей.
Если таких знакомых у вас нет — спросите в нашем чате.
Если у вас на это нет времени, просто приобретайте доступ здесь, по ссылке ниже.
Хотя с 1 апреля цена доступа к руководству по подготовке к CIPP/E увеличилась до 3000 рублей, вы ещё можете сэкономить. Обратитесь к своим знакомым — всем, кто уже приобрёл руководство, я по запросу выдаю личные промокоды на скидку для их знакомых и друзей.
Если таких знакомых у вас нет — спросите в нашем чате.
Если у вас на это нет времени, просто приобретайте доступ здесь, по ссылке ниже.
❤3
Британский подход к регулированию ИИ
На истекшей неделе британское правительство опубликовало доклад, описывающий их подход к регулированию применения искусственного интеллекта.
Был выбран вариант, при котором регуляторные полномочия делегированы существующим отраслевым органам. Этим органам на первоначальном этапе предлагается в добровольном порядке рассмотреть общие принципы регулирования, предложенные правительством. В перспективе, исходя из плана законодательной работы, эти общие принципы также будут обсуждены в парламенте и закреплены в законе.
Также опубликована оценка регулирующего воздействия. Исходя из неё, рассматривались следующие варианты:
Вариант 0 - "Ничего не делать". Основан на предположении, что ЕС примет Регламент об искусственном интеллекте в первоначальной редакции от апреля 2021 года. Великобритания не принимает никаких нормативных требований в отношении ИИ.
Вариант 1 - Делегировать полномочия существующим отраслевым органам, которым будет рекомендовано следовать принципам, предлагаемым правительством. Мягкий вариант, при котором существующие отраслевые органы реализуют межотраслевые принципы в рамках своих полномочий.
Вариант 2 - Делегирование полномочий существующим отраслевым органам, которые будут обязаны следовать принципам, установленным правительством, при поддержке национального регулятора (Выбранный вариант). Новые обязательства для предприятий самим правительством не устанавливаются.
Вариант 3 - Централизованное регулирование с новыми законодательными требованиями к применению ИИ. Великобритания создает новый орган по централизованному регулированию ИИ и устанавливает для предприятий обязательные требования, гармонизированные с требованиями Регламента ЕС об ИИ.
На истекшей неделе британское правительство опубликовало доклад, описывающий их подход к регулированию применения искусственного интеллекта.
Был выбран вариант, при котором регуляторные полномочия делегированы существующим отраслевым органам. Этим органам на первоначальном этапе предлагается в добровольном порядке рассмотреть общие принципы регулирования, предложенные правительством. В перспективе, исходя из плана законодательной работы, эти общие принципы также будут обсуждены в парламенте и закреплены в законе.
Также опубликована оценка регулирующего воздействия. Исходя из неё, рассматривались следующие варианты:
Вариант 0 - "Ничего не делать". Основан на предположении, что ЕС примет Регламент об искусственном интеллекте в первоначальной редакции от апреля 2021 года. Великобритания не принимает никаких нормативных требований в отношении ИИ.
Вариант 1 - Делегировать полномочия существующим отраслевым органам, которым будет рекомендовано следовать принципам, предлагаемым правительством. Мягкий вариант, при котором существующие отраслевые органы реализуют межотраслевые принципы в рамках своих полномочий.
Вариант 2 - Делегирование полномочий существующим отраслевым органам, которые будут обязаны следовать принципам, установленным правительством, при поддержке национального регулятора (Выбранный вариант). Новые обязательства для предприятий самим правительством не устанавливаются.
Вариант 3 - Централизованное регулирование с новыми законодательными требованиями к применению ИИ. Великобритания создает новый орган по централизованному регулированию ИИ и устанавливает для предприятий обязательные требования, гармонизированные с требованиями Регламента ЕС об ИИ.
GOV.UK
UK unveils world leading approach to innovation in first artificial intelligence white paper to turbocharge growth
Government launches AI white paper to guide the use of artificial intelligence in the UK, to drive responsible innovation and maintain public trust in this revolutionary technology.
👍3
Опрос для работающих в сфере образования
Коллега в связи с подготовкой магистерской работы проводит опрос по поводу этики, возможностей и рисков использования генеративного ИИ в образовании.
Если вам интересно поучаствовать и вам есть, что сказать, присылайте свой адрес эл. почты на @robocounsel_bot с пометкой Education.
Анкета на английском.
Коллега в связи с подготовкой магистерской работы проводит опрос по поводу этики, возможностей и рисков использования генеративного ИИ в образовании.
Если вам интересно поучаствовать и вам есть, что сказать, присылайте свой адрес эл. почты на @robocounsel_bot с пометкой Education.
Анкета на английском.
👍2
Проектируемая оспоримость автоматизированных решений
Юристам, работающим с персональными данными, уже известен родственный этому термин.
Это конструктивная, или проектируемая, совместимость с требованиями законодательства о персональных данных.
Если используемая вами информационная система обрабатывает персональные данные, но спроектирована без учёта требований закона — у вас могут быть проблемы. Вы уже можете нарушать закон.
Несколько лет назад я развил эту идею, предложив и вместе с коллегами сформулировав для систем искусственного интеллекта более широкий принцип — принцип их проектируемого соответствия закону:
Применение системы искусственного интеллекта не должно — заведомо для разработчика — приводить к нарушению правовых норм.
То, что благодаря именно моему вкладу в разработку текста Концепции регулирования ИИ, этот принцип в 2020 году стал частью правовой системы России — я считаю одним из моих главных жизненных достижений.
Производным от этого принципа является принцип оспоримости автоматизированных решений.
Он означает, что всякое автоматизированное решение, влияющее на права и интересы граждан, должно быть объяснимо и понятно.
Причём в такой степени, чтобы у человека была реальная возможность подсветить и оспорить (в суде или другом органе) любые неточности и ошибки в данных или логике, на основе которых принято решение.
Потому что если у человека уже есть по закону право оспорить какое-то решение другого человека, органа или организации, это право на оспаривание не может магически исчезать после того, как вместо человека то же решение станет принимать ИИ.
Соответственно, за счёт этого принципа, необъяснимые системы типа "чёрный ящик", к сожалению для их жаждущих лёгкой прибыли разработчиков, и к счастью для всех нас, никогда не смогут быть использованы ни в суде, ни полицией, ни каким иным органом, который решает судьбы людей.
Статья коллег развивает научную дискуссию на эту тему и поможет в правоприменении по будущему Регламенту ЕС об ИИ, который уже содержит принцип объяснимости.
Юристам, работающим с персональными данными, уже известен родственный этому термин.
Это конструктивная, или проектируемая, совместимость с требованиями законодательства о персональных данных.
Если используемая вами информационная система обрабатывает персональные данные, но спроектирована без учёта требований закона — у вас могут быть проблемы. Вы уже можете нарушать закон.
Несколько лет назад я развил эту идею, предложив и вместе с коллегами сформулировав для систем искусственного интеллекта более широкий принцип — принцип их проектируемого соответствия закону:
Применение системы искусственного интеллекта не должно — заведомо для разработчика — приводить к нарушению правовых норм.
То, что благодаря именно моему вкладу в разработку текста Концепции регулирования ИИ, этот принцип в 2020 году стал частью правовой системы России — я считаю одним из моих главных жизненных достижений.
Производным от этого принципа является принцип оспоримости автоматизированных решений.
Он означает, что всякое автоматизированное решение, влияющее на права и интересы граждан, должно быть объяснимо и понятно.
Причём в такой степени, чтобы у человека была реальная возможность подсветить и оспорить (в суде или другом органе) любые неточности и ошибки в данных или логике, на основе которых принято решение.
Потому что если у человека уже есть по закону право оспорить какое-то решение другого человека, органа или организации, это право на оспаривание не может магически исчезать после того, как вместо человека то же решение станет принимать ИИ.
Соответственно, за счёт этого принципа, необъяснимые системы типа "чёрный ящик", к сожалению для их жаждущих лёгкой прибыли разработчиков, и к счастью для всех нас, никогда не смогут быть использованы ни в суде, ни полицией, ни каким иным органом, который решает судьбы людей.
Статья коллег развивает научную дискуссию на эту тему и поможет в правоприменении по будущему Регламенту ЕС об ИИ, который уже содержит принцип объяснимости.
👍20👏3❤2
Мета меняет основание обработки данных на законный интерес
Такие правила будут действовать для пользователей Фейсбука и Инстаграма, находящихся в Евросоюзе, начиная с 5 апреля, сообщает компания.
По данным источников Уолл-Стрит Джорнел, эти пользователи через специальную форму смогут заявить возражение, при удовлетворении которого компания перестанет обрабатывать их персональные данные для показа индивидуализированной рекламы. В этом случае реклама будет индивидуализироваться на основании более широких категорий, таких как возрастная группа и примерный регион проживания.
Ранее компания обрабатывала персональные данные пользователей для индивидуализированной рекламы на основании договора (пользовательского соглашения), однако эта практика была признана незаконной надзорным органом по жалобе прайваси-активистов из NOYB.
Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
Такие правила будут действовать для пользователей Фейсбука и Инстаграма, находящихся в Евросоюзе, начиная с 5 апреля, сообщает компания.
По данным источников Уолл-Стрит Джорнел, эти пользователи через специальную форму смогут заявить возражение, при удовлетворении которого компания перестанет обрабатывать их персональные данные для показа индивидуализированной рекламы. В этом случае реклама будет индивидуализироваться на основании более широких категорий, таких как возрастная группа и примерный регион проживания.
Ранее компания обрабатывала персональные данные пользователей для индивидуализированной рекламы на основании договора (пользовательского соглашения), однако эта практика была признана незаконной надзорным органом по жалобе прайваси-активистов из NOYB.
Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
Meta Newsroom
How Meta Uses Legal Bases for Processing Ads in the EU
We strongly believe our approach to ads respects GDPR.
🔥8
Robocounsel
Почему судью нельзя заменить большой языковой моделью Судя по соцсетям, не все это понимают, поэтому объясню. Начнем с того, что общее соображение о том, что большие языковые модели не способны заменить ничего стоящего в нашей жизни (хотя могут улучшить…
Cнова про Сёрля, семантику и синтаксис
У меня есть хороший приятель, которого вдохновляет, насколько ГПТ-4 лучше справляется с некоторыми его задачами по сравнению с ЧатГПТ.
Он один из тех, кто видит в этих языковых моделях «зарождающиеся искры разума».
Для меня проблема в том, что это статистические машинки, которые умеют в синтаксис (форму), но не умеют в семантику (смыслы). Они могут только имитировать мышление.
В «Китайской комнате» Сёрля человек, который по инструкции и на основе одних иероглифов на входе научен выдавать на выход другие иероглифы, не научится понимать значение этих иероглифов. То же самое и с языковыми моделями.
Это не означает, как верно отмечает Флориди, что статистический анализ в некоторых задачах не может заменить мыслительный процесс.
Как мы видим на практике – может. Мой другой хороший приятель говорит, что некоторые чиновники напоминают ему ЧатГПТ на зарплате.
Проблема лишь в том, что эти системы не помогут там, где нужно проникать в смыслы и оперировать именно ими, где недостаточно просто вызубрить синтаксис.
Поэтому самый интересный вопрос – насколько много у нас в жизни таких задач, где потенциально, со временем, мышление и работу с семантикой нельзя заменить имитацией мышления в виде статистики, опирающейся на синтаксис.
Оптимисты, посмотрев на ГПТ-4, скажут, что таких задач как минимум меньше, чем мы могли думать раньше. Скептики скажут, что основные ценности и фундаментальные для нас вещи – именно и только в таких задачах. Как я аргументировал раньше, отправление правосудия – одна из таких (несводимых к статистическому анализу и синтаксису) задач.
Возможно, вы захотите дополнить этот список в комментариях, или даже представить свои возражения.
У меня есть хороший приятель, которого вдохновляет, насколько ГПТ-4 лучше справляется с некоторыми его задачами по сравнению с ЧатГПТ.
Он один из тех, кто видит в этих языковых моделях «зарождающиеся искры разума».
Для меня проблема в том, что это статистические машинки, которые умеют в синтаксис (форму), но не умеют в семантику (смыслы). Они могут только имитировать мышление.
В «Китайской комнате» Сёрля человек, который по инструкции и на основе одних иероглифов на входе научен выдавать на выход другие иероглифы, не научится понимать значение этих иероглифов. То же самое и с языковыми моделями.
Это не означает, как верно отмечает Флориди, что статистический анализ в некоторых задачах не может заменить мыслительный процесс.
Как мы видим на практике – может. Мой другой хороший приятель говорит, что некоторые чиновники напоминают ему ЧатГПТ на зарплате.
Проблема лишь в том, что эти системы не помогут там, где нужно проникать в смыслы и оперировать именно ими, где недостаточно просто вызубрить синтаксис.
Поэтому самый интересный вопрос – насколько много у нас в жизни таких задач, где потенциально, со временем, мышление и работу с семантикой нельзя заменить имитацией мышления в виде статистики, опирающейся на синтаксис.
Оптимисты, посмотрев на ГПТ-4, скажут, что таких задач как минимум меньше, чем мы могли думать раньше. Скептики скажут, что основные ценности и фундаментальные для нас вещи – именно и только в таких задачах. Как я аргументировал раньше, отправление правосудия – одна из таких (несводимых к статистическому анализу и синтаксису) задач.
Возможно, вы захотите дополнить этот список в комментариях, или даже представить свои возражения.
🔥11👍4🤔2
ЧатГПТ и ответственность за распространение недостоверной информации
Через 15 минут, в 14:45 по МСК, в эфире Коммерсант ФМ мой комментарий по теме. Первый сюжет после новостей.
Подключайтесь
Через 15 минут, в 14:45 по МСК, в эфире Коммерсант ФМ мой комментарий по теме. Первый сюжет после новостей.
Подключайтесь
www.kommersant.ru
Прямой эфир – КоммерсантъFM
Актуальные новости, объективный анализ и эксклюзивные комментарии о важнейших событиях и трендах
❤8👍1
ГПТ-4 может помочь улучшить юридическую технику
Наверное, не у меня одного вызывает раздражение низкое качество юридической техники новейших поправок в российское законодательство.
Километровые абзацы из одного предложения — мягко говоря, неудобны для прочтения и понимания.
Гораздо лучше, когда текст правовой нормы хорошо структурирован, и отдельные её элементы всегда остаются короткими и понятными.
Дэмиен Риль показывает, как языковые модели типа ГПТ-4 могут нам с вами помочь сделать законодательство более удобным и понятным.
Обратите внимание, что английские законы (например, CDPA 1988 года, второй скриншот), например, уже гораздо ближе к идеалу, хотя и писались безо всякого ГПТ-4.
P.S. Пример на русском в комментариях.
Наверное, не у меня одного вызывает раздражение низкое качество юридической техники новейших поправок в российское законодательство.
Километровые абзацы из одного предложения — мягко говоря, неудобны для прочтения и понимания.
Гораздо лучше, когда текст правовой нормы хорошо структурирован, и отдельные её элементы всегда остаются короткими и понятными.
Дэмиен Риль показывает, как языковые модели типа ГПТ-4 могут нам с вами помочь сделать законодательство более удобным и понятным.
Обратите внимание, что английские законы (например, CDPA 1988 года, второй скриншот), например, уже гораздо ближе к идеалу, хотя и писались безо всякого ГПТ-4.
P.S. Пример на русском в комментариях.
🔥10👍3
Статья Михаила Ярошевского из Литературной газеты 1952 года — любопытный артефакт.
С одной стороны — стилистика, идеологический уклон и акценты сообразны эпохе и тому контексту, в котором жил автор.
С другой стороны — некоторые нарративы, касающиеся последствий замены людей машинами, дисбаланса сил в обществе, экономике и политике — те же, что будоражат умы и сегодня.
Полный текст в распознанном виде
Источник и комментарий об авторе
С одной стороны — стилистика, идеологический уклон и акценты сообразны эпохе и тому контексту, в котором жил автор.
С другой стороны — некоторые нарративы, касающиеся последствий замены людей машинами, дисбаланса сил в обществе, экономике и политике — те же, что будоражат умы и сегодня.
Полный текст в распознанном виде
Источник и комментарий об авторе
🔥7👍3
Чем могу быть полезен
Хотел напомнить о том, как мы с вами можем быть друг другу полезны.
Я — один из ведущих экспертов по цифровой политике и регулированию ИИ и данных в Европе, экс-спецсоветник по цифровому развитию Совета Европы, экс-старший менеджер Делойт Лигал. Был коммерческим юристом в АБС Электро и Сименсе, работал над законопроектами в Сколково. Разработал проекты актов регулирования ИИ и данных для России и Киргизии, предложения по изменениям в акты ООН и ЮНСИТРАЛ.
Сейчас я консультант, ментор, спикер и публицист. Мои комментарии в блогах или рассылку в Линкдине читают тысячи людей, среди которых топ-менеджеры крупнейших технологических компаний мира, чиновники из США, ЕС и органов государственной власти России и стран СНГ.
Вы можете прямо сейчас:
1) привлечь меня как эксперта на ваши проекты, записаться ко мне на консультацию, менторство или просто встречу (через сайт или через бота),
2) пригласить в качестве модератора, спикера или организатора для вашего мероприятия по ИИ, предложить иные варианты сотрудничества (также через сайт или через бота),
3) записаться на ближайший вебинар (рус. или англ.) по ответственному применению ИИ в бизнесе (практические советы без воды),
4) приобрести доступ (за рубли, за евро) к руководству по сдаче экзамена CIPP/E (сертификация для работы с персональными данными в ЕС),
5) подписаться на платный канал Robocounsel Plus с дополнительным контентом и доступом к изучению фреймворков риск-менеджмента для ИИ-систем.
Хотел напомнить о том, как мы с вами можем быть друг другу полезны.
Я — один из ведущих экспертов по цифровой политике и регулированию ИИ и данных в Европе, экс-спецсоветник по цифровому развитию Совета Европы, экс-старший менеджер Делойт Лигал. Был коммерческим юристом в АБС Электро и Сименсе, работал над законопроектами в Сколково. Разработал проекты актов регулирования ИИ и данных для России и Киргизии, предложения по изменениям в акты ООН и ЮНСИТРАЛ.
Сейчас я консультант, ментор, спикер и публицист. Мои комментарии в блогах или рассылку в Линкдине читают тысячи людей, среди которых топ-менеджеры крупнейших технологических компаний мира, чиновники из США, ЕС и органов государственной власти России и стран СНГ.
Вы можете прямо сейчас:
1) привлечь меня как эксперта на ваши проекты, записаться ко мне на консультацию, менторство или просто встречу (через сайт или через бота),
2) пригласить в качестве модератора, спикера или организатора для вашего мероприятия по ИИ, предложить иные варианты сотрудничества (также через сайт или через бота),
3) записаться на ближайший вебинар (рус. или англ.) по ответственному применению ИИ в бизнесе (практические советы без воды),
4) приобрести доступ (за рубли, за евро) к руководству по сдаче экзамена CIPP/E (сертификация для работы с персональными данными в ЕС),
5) подписаться на платный канал Robocounsel Plus с дополнительным контентом и доступом к изучению фреймворков риск-менеджмента для ИИ-систем.
🔥10👍5❤4
Когда ваше имя совпадает с именем голосового помощника
Алекса — это не только голосовой помощник Амазона. В некоторых странах "Алекса" — нередко встречающееся имя.
Проблема для носительниц этого имени (и созвучных ему) в том, что Амазон на сегодня не позволяет перенастроить своего голосового помощника на другой "позывной". В результате, где бы эти люди или их собеседники ни оказывались поблизости с продукцией Амазон, любой разговор, в том числе видеоконференция, с упоминанием их имени вызывает ложные срабатывания их и чужих амазоновских устройств, неудобства и раздражение.
Кроме того, некоторые из Алекс жалуются на то, что на любом новом рабочем месте они сразу же сталкиваются с утомительно высоким уровнем шуток, обыгрывающих это совпадение. Некоторые в результате даже меняют имя.
В результате, Алексы и сочувствующие им объединились, чтобы попробовать изменить политику компании, которую они считают неэтичной.
Однако пока компания остаётся непреклонной.
Алекса — это не только голосовой помощник Амазона. В некоторых странах "Алекса" — нередко встречающееся имя.
Проблема для носительниц этого имени (и созвучных ему) в том, что Амазон на сегодня не позволяет перенастроить своего голосового помощника на другой "позывной". В результате, где бы эти люди или их собеседники ни оказывались поблизости с продукцией Амазон, любой разговор, в том числе видеоконференция, с упоминанием их имени вызывает ложные срабатывания их и чужих амазоновских устройств, неудобства и раздражение.
Кроме того, некоторые из Алекс жалуются на то, что на любом новом рабочем месте они сразу же сталкиваются с утомительно высоким уровнем шуток, обыгрывающих это совпадение. Некоторые в результате даже меняют имя.
В результате, Алексы и сочувствующие им объединились, чтобы попробовать изменить политику компании, которую они считают неэтичной.
Однако пока компания остаётся непреклонной.
Alexa Coalition
A Failure of Ethics and Corporate Stewardship: Choosing the human name, Alexa for a wake word.
👍5🌚5😁3❤1😢1
ЮНСИТРАЛ обсуждает автоматизацию договоров и стандартные условия предоставления данных
На этой неделе в качестве приглашённого эксперта принимаю участие в 65-й сессии IV рабочей группы ЮНСИТРАЛ.
Обсуждаются возможные поправки в Конвенцию ООН об электронных сообщениях и предложения по модельным законам и иным актам ЮНСИТРАЛ в части стандартных положений договоров на предоставление данных и автоматизированного заключения договоров, в том числе с применением ИИ.
С коллегами из Центра международных и сравнительно-правовых исследований дали свои предложения на рабочие документы сессии (я — в части автоматизированного заключения договоров и применения ИИ).
Материалы ЮНСИТРАЛ и наши предложения доступны здесь.
А на полях сегодняшнего заседания, в обед (по Нью-Йорку), коллеги из Киргизии будут презентовать проект нового Цифрового кодекса республики, для которого я разработал главу по системам искусственного интеллекта.
На этой неделе в качестве приглашённого эксперта принимаю участие в 65-й сессии IV рабочей группы ЮНСИТРАЛ.
Обсуждаются возможные поправки в Конвенцию ООН об электронных сообщениях и предложения по модельным законам и иным актам ЮНСИТРАЛ в части стандартных положений договоров на предоставление данных и автоматизированного заключения договоров, в том числе с применением ИИ.
С коллегами из Центра международных и сравнительно-правовых исследований дали свои предложения на рабочие документы сессии (я — в части автоматизированного заключения договоров и применения ИИ).
Материалы ЮНСИТРАЛ и наши предложения доступны здесь.
А на полях сегодняшнего заседания, в обед (по Нью-Йорку), коллеги из Киргизии будут презентовать проект нового Цифрового кодекса республики, для которого я разработал главу по системам искусственного интеллекта.
iclrc.ru
Центр принимает участие в 65-й сессии Рабочей группы IV ЮНСИТРАЛ
C 10 по 14 апреля Центр в качестве наблюдателя принимает участие в 65-й сессии Рабочей группы IV ЮНСИТРАЛ, в рамках которой пройдёт дальнейшее обсуждение документов A/CN.9/WG.IV/WP.179 — Продвижение работы по автом...
👍15🔥3
Галлюцинируют ли андроиды об электродиффамации?
Уместно ли применение к ним реактивных установок Стросона, а к речевым деликтам — теории речевых актов Остина?
И зачем Ксеркс потребовал высечь море, а австралийский мэр — ЧатГПТ?
Обо всём этом моё ночное письменное.
Уместно ли применение к ним реактивных установок Стросона, а к речевым деликтам — теории речевых актов Остина?
И зачем Ксеркс потребовал высечь море, а австралийский мэр — ЧатГПТ?
Обо всём этом моё ночное письменное.
Linkedin
Are chatbots capable of defamation?
As I and many other commentators have been explaining for several months now, the machine learning-based systems which drive ChatGPT and similar chatbots are not yet trustworthy. By design, they are inherently (and some say incurably) predisposed to produce…
🔥4👍2