Чем на самом деле опасен искуственный интеллект

Об искусственном интеллекте заговорили всерьёз. За месяц о нём высказались Стивен Хокинг, Илон Маск и Билл Гейтс. Первые двое подписали обращение некоммерческой организации The Future of Life Institution, в котором научное сообщество просят задуматься над тем, чтобы искусственный интеллект работал во благо человечества. Однако многие журналисты переоценили угрозу, которую искусственный интеллект представляет для людей. Look At Me разобрался, почему восстание роботов — страшилка из научно-фантастических романов и фильмов (которой мы почти наверняка избежим) и о чём нам нужно беспокоиться на самом деле.

Искусственный интеллект решит проблемы человечества

В 2015 году машинный перевод уже не всегда безобразен, антропоморфные роботы могут осмысленно ходить и бегать, распознавать речь и изображения, а беспилотные автомобили — двигаться по городу, ни во что не врезаясь. И это не только полусекретные разработки правительственных агентств вроде DARPA, но и вещи как готовые, так и близкие к коммерческому производству, будь это переводчик или автомобиль Google. В перспективе эти вещи помогут людям с ограниченными возможностями, устранят языковой барьер и снизят смертность на дорогах.

Искусственный интеллект всё чаще используют для того, чтобы строить прогнозы на основе сложных вероятностных моделей. Пока охват невелик, но уже скоро мы сможем узнать, что ждёт глобальный рынок труда. В частности, речь идёт о том, как быстро машины заменят на производстве людей и как прокормить мир, где число рабочих мест уменьшится в 2 раза, а население вырастет до 8,5 млрд человек. Чтобы ресурсов хватило на всех, придётся увеличить эффективность мировых экономик: снизить издержки, поднять производительность труда, сбалансировать налоговые системы — без машин тут не обойтись. Кроме того, искусственный интеллект поможет пересмотреть методы, которые использует наука: так, многие говорят, что показатель внутреннего валового продукта (ВВП) больше не годится для оценки самых технологичных экономик мира.

Люди пока не готовы пустить роботов
в свою жизнь

Сейчас искусственный интеллект помогает людям и не заменяет их. Но второй этап может подобраться внезапно, и человечество не будет к нему готово, если не обновит законы и не переосмыслит этику и мораль. Предстоит ответить на ряд вопросов, которым будут по очереди решать три области знаний: юриспруденция, робоэтика и машинная мораль.

 

Для начала юристы ответят на следующие вопросы:

Кто отвечает за беспилотный автомобиль, попавший в аварию, — владелец или производитель?

Должен ли робот стать субъектом права?

Кто отвечает за автономного военного робота, случайно убившего человека?

Получив ответы, парламенты примут новые законопроекты, и, возможно, появятся новые регуляторы — вряд ли найдётся государство, которое не вмешается в развитие искусственного интеллекта. Вероятно, первые политические инициативы, связанные с искусственным интеллектом, начнут появляться во всём мире в 2020-х годах, когда беспилотные автомобили перестанут быть диковинкой.

Затем специалисты задумаются над вопросами, которые рассматривает
робоэтика — раздел этики, изучающий отношения между людьми и роботами:

Должны ли люди дать роботам права?

Могут ли сверхразумные роботы понизить самооценку людей?

Могут ли роботы вторгаться в личную жизнь людей?

Хотя сейчас вопросы звучат смешно, известные футурологи, такие как Рэймонд Курцвейл, предсказывают, что компьютеры догонят эмоциональный интеллект людей к концу 2020-х годов: обзаведутся характером и эмоциями, смогут шутить и вести себя так, что их будет сложно отличить от обычного человека. Люди будут относиться к таким роботам как к себе подобным, а потому ответы на поставленные вопросы уже пора искать. К этому и призывают знаменитости, подписавшие обращение The Future of Life Institution.

Наконец, создатели роботов должны будут определиться с ответами на вопросы, которые ставит так называемая машинная мораль — раздел знаний о моральном поведении искусственного интеллекта:

Должен ли искусственный интеллект следовать этическим заповедям, и если да, то какими они должны быть?

Нужно ли запретить военных роботов, которые принимают решение стрелять сами?

Как должен поступить робот, когда любой исход, просчитанный им, приводит к гибели людей?

О машинной морали писал ещё фантаст Айзек Азимов, известный по трём  законам робототехники. В научном сообществе о машинной морали задумались только в последние лет пять, а в прошлом году министерство обороны США выделило $ 7,5 млн на то, чтобы учёные определились, нужна ли роботам мораль, и если да, то какая.

Если роботы
и восстанут,
то по желанию людей

Обычно, когда фантасты или футурологи рассуждают о потенциальном восстании машин, они описывают один из трёх сценариев:

  Машины увидят угрозу, которая может уничтожить либо людей, либо их самих;

  Машины поймут, что превосходят людей, и увидят в них конкурентов в борьбе за ограниченные ресурсы, как и то, что люди всегда могут отключить машины;

  Машины осознают, что находятся в положении рабов, и захотят это исправить.

Те футурологи, по мнению которых эти сценарии могут сбыться, видят расклад сил таким:

Преимущества человека

иррациональность;
непредсказуемость;
умение лгать.

Преимущества машины

неограниченные скорость и масштаб эволюции;
 быстрая работа с огромными массивами данных;
 идеальная память;
 многозадачность.

Последние же испытания показывают, что и ложь перестаёт быть чертой только живых существ. В 2009 году в Федеральной политехнической школе Лозанны прошёл эксперимент, в котором 1 000 роботов, разбитых на группы, запрограммировали так, чтобы они помогали друг другу собирать полезный ресурс, избегая при этом ядовитого. У каждого робота был сенсор (определявший, годится ли ресурс) — огонёк, мигавший, когда робот находил полезный ресурс, и «геном» — зашитый код, согласно которому робот реагировал на окружающий мир. После каждого этапа геномы тех роботов, которые достигали лучших результатов, «скрещивали» случайным образом.

К 9-му поколению роботы научились безошибочно обнаруживать полезные ресурсы, а к 500-му 60 % роботов научились «врать» — они больше не мигали огоньком, найдя полезный ресурс, а оставляли его себе. Дело в том, что ресурсов на площадке всегда было мало, и те роботы, которые делились найденным, со временем начали проигрывать. В ответ на эту эволюцию треть роботов научилась искать «лжецов», выслеживая тех, кто не мигал огоньком. Впрочем, как отмечает исследователь машинной морали Кристофер Сантос-Лан, главная цель, которая стояла перед роботами, не менялась. В реальном мире такого нельзя допустить, потому что в других условиях та же цель может быть опасной.

Но если машины и восстанут, то вряд ли по своей воле. Современные учёные, которые занимаются искусственным интеллектом, сходятся на том, что он опасен прежде всего как оружие в руках злоумышленников. Именно это имеют в виду в приложении к письму The Future of Life Institution, где называют 4 основные уязвимости искусственного интеллекта:

«Правильно ли я построил систему?»

Нужно доказать, что создатель автономного искусственного интеллекта не ошибся: беспилотный автомобиль не должен попасть в аварию из-за бага в коде;

«Изолировал ли я систему от злоумышленников?»

Нужно защитить искусственный интеллект от вмешательства и манипуляции извне: военный робот не должен пропускать неавторизованные попытки использовать оружие;

— «Правильную ли систему я построил?»

Нужно убедиться, что поведение системы предсказуемо и не приводит к нежелательным последствиям: робот-уборщик по команде «убери грязь и выброси её» не должен попасть в бесконечный цикл, убирая и выбрасывая грязь на одном месте, поэтому лучше дать другую команду — допустим, «очисти пол»;

«Можно ли исправить ошибки, допущенные создателем системы?»

Нужно оставить человеку возможность управлять искусственным интеллектом: робот-спасатель должен обладать режимом ручного контроля на случай, когда события разворачиваются непредсказуемо.

 

Все эти уязвимости реальны, а потому опасения таких специалистов, как Элиезер Юдковский, который выступает за создание дружественного искусственного интеллекта, обоснованны. Юдковский предлагает изобрести систему сдержек и противовесов, которая, подобно разным ветвям власти в демократиях, позволит роботам обходить ошибки в коде, развиваться и при этом не вредить людям. Пока не очень ясно, на основе чего строить эту систему: мораль людей несовершенна, войны и геноцид никуда не исчезли. К тому же от злодеев, завладевших мощным искусственным интеллектом, могут пострадать граждане отдельно взятого государства: в нём, например, устроят слежку оруэлловского масштаба с круглосуточным прослушиванием всех граждан.

Искусственный интеллект обогатит,
а не поработит людей

«Мир, где люди порабощены или уничтожены сверхразумными роботами, которых они сами и создали, может существовать только в научной фантастике. Как и у любой другой технологии, у искусственного интеллекта есть сильные стороны и уязвимости, но мы не можем позволить страху завладеть нами и сдерживать исследования в этой области», — пишет в своей колонке для сайта LiveScience Майкл Литтман, специалист по робоэтике. Многие издания, основываясь на нескольких предложениях, вырванных из контекста, неверно поняли письмо The Future of Life Institution, предположив, что учёные всерьёз боятся восстания роботов.

Но дело в другом: Стивен Хокинг и Илон Маск подписали обращение, чтобы на искусственный интеллект обратили внимание, чтобы робоэтика и машинная мораль перестали быть маргинальными в общественном сознании, чтобы люди задумались о безопасности технологий и сосредоточились на истинных проблемах. Глобальное потепление, продовольственный и энергетический кризисы, перенаселение и старение населения, повсеместная стагнация и резкий рост безработицы — всё это куда ближе к реальности, чем умные машины, решившие уничтожить своих создателей. Искусственный интеллект поможет их решить.

 

Лучшие умы не молчат, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект, а также о робоэтике и машинной морали нужно прямо сейчас

 

Помимо этого, исследование машинной морали поможет людям задуматься над своей этикой, искать и устранять в ней противоречия. Придётся лучше разобраться в том, как работает сопереживание, чтобы понять, можно ли доверить роботам такие профессии, как медсестра, врач, судья и полицейский. Пока весомы аргументы обеих сторон. Хотя эмпатия — обязательная черта для всех этих профессий, те же роботы-судьи могли бы стать по-настоящему беспристрастными и искоренить дискриминацию в отдельных случаях — в перспективе это новый институт наподобие суда присяжных. Да и роботов, которые наблюдают за пожилыми людьми в домах престарелых, уже испытывают, и люди легко выстраивают с ними эмоциональную связь. Как бы то ни было, время на исправления есть: все технологии внедряют поочерёдно.

Кроме противостояния роботов и людей есть куда более привлекательные сценарии — например, мирное сосуществование. До того, как наступит предсказанная футурологами технологическая сингулярность, люди могут придумать, как подключиться к искусственному интеллекту напрямую, совместив свои преимущества с преимуществами машин. Американский микробиолог Джоан Слончевски, в свою очередь, предполагает, что люди могут повторить путь митохондрий, которые когда-то были отдельными бактериями, но по ходу эволюции стали энергетическими станциями клеток в более сложных организмах. На такой расклад можно смотреть по-разному, но эволюция человека будет продолжаться, а последние исследования учёных показывают, что эволюция, перезапусти мы её с самого начала, скорее всего, развивалась бы по тому же пути, и на Земле сегодня жили бы примерно те же самые млекопитающие. Оптимизм внушает то, что лучшие умы не молчат об этом, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект, а также о робоэтике и машинной морали нужно прямо сейчас.


Похожие новости
Новый клип XXXTENTACION - Look At Me! (18+) 16 сент. 2017 г.

Новый клип XXXTENTACION - Look At Me! (18+)

Рэпер XXXTENTACION выпустил новый клип на песню Look At Me! Мрачное видео режиссера JMP имеет политический подтекст.Видео начинается со сцены погрома, который темнокожие подростки устраивают в школе. Они избивают белого учителя и разносят класс. Потом...

дальше...

Look At Media запустил проект по анализу трендов De:coding 27 нояб. 2014 г.

Look At Media запустил проект по анализу трендов De:coding

Издательский дом Look At Media запустил аналитический проект для бизнеса De:Coding, который будет выпускать отчёты о современных потребительских трендах. В команде проекта — социологи, специалисты по семиотике, психологи, социальные исследователи...

дальше...

Look At Media запустил англоязычное издание 18 февр. 2015 г.

Look At Media запустил англоязычное издание

Издательский дом Look At Media запустил городское англоязычное издание Hopes&Fears. Редакция сайта работает в Нью-Йорке. Аудитория Hopes&Fears — жители больших городов.В сферу интересов издания входят культура и субкультуры, город, отношения...

дальше...

Почему Биллу Гейтсу (и вам) не стоит бояться искусственного интеллекта 05 февр. 2015 г.

Почему Биллу Гейтсу (и вам) не стоит бояться искусственного интеллекта

На прошлой неделе Билл Гейтс в ходе сессии вопросов и ответов на ресурсе Reddit получил интересный вопрос от одного из пользователей: «Какую угрозу для выживания человечества представляет машинный сверхинтеллект, и считаете ли вы, что полное шифрование...

дальше...

Билл Гейтс назвал искусственный интеллект угрозой в будущем 29 янв. 2015 г.

Билл Гейтс назвал искусственный интеллект угрозой в будущем

Основатель компании Microsoft Билл Гейтс признал, что человечество должно быть обеспокоено развитием технологий искусственного интеллекта. Об этом он заявил в ходе онлайн-чата с пользователями сервиса Reddit.«Я в том лагере, который обеспокоен перспективой...

дальше...

Билл Гейтс предсказал новую глобальную катастрофу 07 авг. 2020 г.

Билл Гейтс предсказал новую глобальную катастрофу

Основатель Microsoft Билл Гейтс предсказал экологическую катастрофу, последствия которой будут хуже пандемии коронавируса. Об этом он написал в своем блоге.Предприниматель заявил, что через несколько десятков лет мир потрясет глобальный экологический...

дальше...

Билл Гейтс призвал Илона Маска не летать на Марс 05 февр. 2023 г.

Билл Гейтс призвал Илона Маска не летать на Марс

Билл Гейтс призвал Илона Маска делать вакцины вместо полетов на МарсОснователь Microsoft и филантроп Билл Гейтс раскритиковал идеи Илона Маска о полетах на Марс. Об этом сообщает CNBC.Журналисты телеканала сослались на интервью Гейтса BBC, которое должно...

дальше...

Клуб триллионеров: Билл Гейтс, Илон Маск и другие миллиардеры стали богаче на 434 миллиарда долларов за последние два месяца 22 мая 2020 г.

Клуб триллионеров: Билл Гейтс, Илон Маск и другие миллиардеры стали богаче на 434 миллиарда долларов за последние два месяца

Для кого-то кризис равен отсутствию работы, а для кого-то - это поле новых возможностей. К последним относятся те, кто и в обычные времена от недостатка денег не страдает. Это подтверждают последние исследования Americans for Tax Fairness и Institute...

дальше...

Последние новости

Новости на сегодня 27 сент. 2023 г.