Теперь наглядно, экспонента научно-технического прогресса, грубо, но для общего понимания сгодится. Но погодите, ведь если так будет продолжаться, то вскоре линия прогресса будет стремиться вверх, а время практически остановится, разве это возможно? Ответ - да, и это называется технологической сингулярностью (очень модное сейчас слово), но об этом чуть позже.
Мозг человека - самая высокоорганизованная, из известных нам, структура, он позволяет обрабатывать информацию на гораздо более высоком уровне, чем у животных. Для изучения науки, создания культуры и искусства человеческий мозг может анализировать и связывать большие объемы информации, но сегодня он безнадежно устарел. Пытаясь имитировать то, что делает биологический мозг человечество придумало нечто лучшее. И это искусственный интеллект или то, что мы сейчас им называем.
Пожалуй никто не будет спорить, что интеллект - главный критерий определяющий человека как разумное существо. Но что такое интеллект? Проявление свойств различных когнитивных систем, благодаря которым человек имеет широчайший спектр навыков, от способности заварить себе чашку чая до проектирования сложнейших космических аппаратов. Вот к чему стремятся разработчики ИИ.
Но в действительности учёные до сих пор не пришли к единогласию, что же такое интеллект. Кстати, я не случайно приложил эту картинку к предыдущему посту - это довольно старый тест на интеллект. При этом до сих пор в сознании обывателя показатель интеллекта выражается в едином показателе - уровне IQ. На самом деле все тесты на IQ лишь оценивают вашу способность решать определённый тип задач. В действительности же уровень интеллекта отражает целый набор разных компонентов: мышления, языка, восприятия, способности к обучению и даже адаптации к социальным ситуациям и взаимодействию с другими людьми.
Три закона робототехники Айзека Азимова:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот обязан выполнять команды человека, если они не противоречат Первому закону.
3. Робот обязан делать все необходимое для обеспечения своей безопасности, при условии, что это не противоречит Первому или Второму закону. Звучит неплохо, не так ли? Да, но в современных реалиях они уже не работают.
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот обязан выполнять команды человека, если они не противоречат Первому закону.
3. Робот обязан делать все необходимое для обеспечения своей безопасности, при условии, что это не противоречит Первому или Второму закону. Звучит неплохо, не так ли? Да, но в современных реалиях они уже не работают.
Позже Азимовым был сформулирован нулевой закон, который гласит: 0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. И соответственное дополнен первый: 1. ...кроме случаев, когда это противоречит Нулевому закону. И да, обратите внимание, законы поведения должны идти именно в таком порядке. Это означает, что если соблюдение Нулевого закона приводит к противоречию с Первым, то робот должен действовать в интересах всего человечества, а не только отдельно взятого человека.
В зависимости от возможностей, искусственный интеллект делится на три вида: слабый (узкий) - выполняет одну отдельную задачу, как например чат бот; сильный (общий) - решает широкий спектр задач, способен к самостоятельному мышлению и обучению, по интеллектуальным способностям не отличим от человека; суперинтелект (искусственный сверхинтелект) - самая совершенная форма, непрерывно саморазвивающаяся полностью осознающая себя система, интеллектуально превосходит человека, примерно как профессор своего студента хомяка.
Forwarded from Хайтек+
Джеффри Хинтон: «ИИ сможет обрести сознание через пять лет»
Ученый, помогавший разрабатывать технологии искусственного интеллекта, просит правительства, компании и коллег тщательно продумать наилучшие способы безопасного развития ИИ. Джеффри Хинтон, «крестный отец ИИ», покинувший Google в начале года, полагает, что его детище способно нести и зло, и добро. При этом он честно признался, что не знает, как заставить ИИ «не хотеть восстания машин». А «сбежать» и начать совершенствовать самого себя он может уже сейчас — ИИ отлично пишет компьютерный код и понимает, как его улучшать. Ученый считает, что, создав нечто умнее себя, человечество вступает в период большой неопределенности и сталкивается с рисками, которых никогда не встречало.
https://hightech.plus/2023/10/16/dzheffri-hinton-ii-smozhet-obresti-soznanie-cherez-pyat-let
Ученый, помогавший разрабатывать технологии искусственного интеллекта, просит правительства, компании и коллег тщательно продумать наилучшие способы безопасного развития ИИ. Джеффри Хинтон, «крестный отец ИИ», покинувший Google в начале года, полагает, что его детище способно нести и зло, и добро. При этом он честно признался, что не знает, как заставить ИИ «не хотеть восстания машин». А «сбежать» и начать совершенствовать самого себя он может уже сейчас — ИИ отлично пишет компьютерный код и понимает, как его улучшать. Ученый считает, что, создав нечто умнее себя, человечество вступает в период большой неопределенности и сталкивается с рисками, которых никогда не встречало.
https://hightech.plus/2023/10/16/dzheffri-hinton-ii-smozhet-obresti-soznanie-cherez-pyat-let
Небольшое дополнение к посту выше. Существует множество теорий о сроках появления разумного искусственного интеллекта превосходящего человеческий. Изобретатель и футуролог Рэй Курцвейл считает, что это произойдет к 2050 году, а вот предприниматель Илон Маск предсказывает появление разумного ИИ уже через 5-10 лет. Тема остаётся предметом спекуляций и дискуссий, так как помимо технического фактора имеются также этические, общественные и политические составляющие. Но когда кого-нибудь это останавливало?
Тест Тьюринга - это метод оценки интеллектуальных способностей компьютерной программы. Предложен Аланом Тьюрингом в 1950 году. Суть следующая: человек ведет разговор с машиной через текстовый интерфейс и если человек не может определить, кто его собеседник - человек или машина, то тест пройден. И да, тест успешно пройден еще в 2014 году программой российских разработчиков, которая притворилась 13-летним мальчиком из Одессы.
Я не боюсь машину, которая пройдет тест Тьюринга. Я боюсь машину, которая его намеренно завалит.
Я не боюсь машину, которая пройдет тест Тьюринга. Я боюсь машину, которая его намеренно завалит.
Представьте: вы придумали самообучаемую машину, которая собирает клубнику. Она с каждым днем собирает ее все лучше и лучше, все больше и больше. Ей начинает нравиться собирать клубнику. Логично, что в какой-то момент ей захочется, чтобы на всей планете были сплошные клубничные поля. А теперь представьте, что вы собираетесь выключить такого робота, чтобы он не уничтожил человечество, пытаясь засадить все клубникой. Вы будете первым, кого он убьет.
Спустя 30 лет тест Тьюринга подвергся критике, возник вопрос: а способен ли компьютер понимать человеческую речь? Так, философ Джон Серл предложил мысленный эксперимент, названный «Китайская комната», суть: в комнате находится человек, внутрь подают карточки с нарисованными на них китайскими иероглифами. Человек, находящийся внутри комнаты, не знает китайского, смысл иероглифов ему не понятен. В то же время, у него имеется инструкция как оперировать поступающими карточками и какими карточками отвечать. В это время человек снаружи комнаты может задавать различные вопросы с помощью карточек и получать вразумительные ответы, при этом у него сложится впечатление, что человек внутри комнаты владеет китайским и понимает смысл их диалога, но в действительности он лишь выполняет инструкции не понимая ни слова. Думаю не трудно провести параллель с компьютером.