Лучшие статьи и кейсы стартапов
Включить уведомления
Дадим сигнал, когда появится
что-то суперстоящее.
Спасибо, не надо
Вопросы Проекты Вакансии
Сообщество робототехников
Рекомендуем
Продвинуть свой проект
Лучшие проекты за неделю
26
Отследить-посылку

Отследить-посылку

отследить-посылку.рф

25
Битрикс24

Битрикс24

www.bitrix24.ru

13
WebResidentTeam

WebResidentTeam

webresident.agency

12
Логомашина

Логомашина

logomachine.ru

12
Devicerra

Devicerra

devicerra.com

11
Reader

Reader

Интернет-журнал о современных технологиях.

9
ADN Digital Studio

ADN Digital Studio

adn.agency

9
Aword

Aword

Приложение для изучения английских слов

9
GIFTD

GIFTD

giftd.tech

8
Eczo.bike

Eczo.bike

www.eczo.bike

Показать следующие
Рейтинг проектов
Подписывайтесь на Спарк в Facebook

Ник Бостром: Мы должны доверить себя будущему, в котором будут править роботы

302 0 В избранное Сохранено
Авторизуйтесь
Вход с паролем
В своей книге под названием «Суперинтеллект», объясняет, как сверхумный ИИ может подняться и уничтожить нас.

b_55c9c5a42323c.jpg

Мы все видели научно-фантастические фильмы, например «2001: Космическая одиссея и Матрица», где в роли злодея выступает программа искусственного интеллекта, которая вышла из-под контроля. Эти сценарии с ИИ в главной роли давали сюжеты для киноиндустрии на протяжении многих десятилетий, но некоторые ученые сегодня предупреждают, что мы должны воспринять угрозу, исходящую от ИИ, очень серьезно.

В прошлом году вышла книга философа Оксфордского университета Ника Бострома, который исследует опасность в мельчайших подробностях. Он руководит Институтом будущего человечества в Оксфорде и изучает все способы стирания человеческого вида с планеты Земля. В своей книге под названием «Суперинтеллект», объясняет, как сверхумный ИИ может подняться и уничтожить нас. Его труд немного сложно написан, ведь Бостром, прежде всего, – философ. Так давайже выясним, есть ли надежда для человечества?

Бостром рассмотрел все виды сценариев вымирания человечества, верно? Где он разместил ИИ в списке вещей, которые могут убить нас? Он рассмотрел всех обычных подозреваемых: астероиды, смертельные болезни, ядерные войны, нанослизь и так далее. И утверждает, что людям стоит больше всего опасаться новых технологий, которые мы изобретаем.

Ник Бостром: Есть очевидные реальные риски, которые идут от природы, астероидов, вулканических извержений и прочее. Но человеческий род существовал более 100 000 лет. Так что если эти опасности от природы не оправдались в это время, они вряд ли нас затронут в ближайшие 100 000 лет, тогда как сами мы будем вводить совершенно новые виды явлений, расширяя границы технологий.

С этими новейшими продуктами приходят совершенно новые риски, с которыми наш вид может не справиться. Мы видели некоторые довольно впечатляющие ИИ за последнее время, например, «Уотсон» от IBM, конкурирующий с людьми в телевизионной игре "Jeopardy!" Но насколько умным на самом деле стал ИИ? На данный момент программисты могут создавать весьма умный ИИ, но для очень специфических задач. «Уотсон» от IBM выиграл "Jeopardy!" потому, что он понимает разговорный английский язык и ищет информацию, но это все, что он может делать. «Уотсон» не может написать Вам по электронной почте описание того, как выглядит его центр обработки данных, или объяснить, почему его программисты медленно двигаются после обеда. Мы по-прежнему далеки от создания ИИ, который смог бы соответствовать уровню человеческого интеллекта, хотя Бостром говорит, что мы не знаем точно, насколько далеки.

Ник Бостром: Мы действительно провели опрос ведущих мировых экспертов в сфере ИИ. Один из вопросов, которые задавали, был следующим: «К какому году, по вашему мнению, с 50-процентной вероятностью будет разработана машина с интеллектом уровня человека?» Средняя цифра, что касается ответа на этот вопрос, составляла 2040 или 2050 в зависимости от опрошенных групп экспертов.

Так почему мы должны беспокоиться об этом сейчас?

(Когда мы делаем ИИ с человеческим уровнем интеллекта, все может пойти не по плану, - пишет Бостром в своей книге.)

Ник Бостром: Ну, на данный момент исследования ИИ проводят программисты, в некоторой степени – неврологи и другие. Если и когда машины начнут превосходить людей по уровню ума, этим будут заниматься уже они. И с их улучшением также развивается выполнение исследования. Элиза Стрикленд: Бостром говорит, что с такой обратной связью ИИ может перейти от человеческого уровня интеллекта до суперинтеллекта прежде, чем мы на самом деле будем готовы к этому.

Давайте предположим, что ИИ достигает уровня суперинтеллекта. Зачем ему стремиться уничтожить своих создателей-людей?

(Автор пишет в книге, что ИИ будет иметь свою цель, а мы просто будем на его пути. Это похоже на то, как из-за людей вымирают животные.)

Ник Бостром: Если подумать о том, что мы делаем с различными видами животных, это же не от ненависти к ним. По большей части так происходит потому, что у нас есть другие применения для их сред обитания, а они вымирают как побочный эффект.

Так что же движет ИИ? Чего он постарается достичь?

Ник Бостром: Давайте предположим, что вы – суперинтеллект и ваша цель в том, чтобы сделать столько скрепок, сколько возможно. Может быть, кто-то хотел, чтобы вы запустили скрепочный завод, а затем вам удалось стать суперумным, и теперь ваша цель – максимизировать количество этого продукта в мире. Таким образом, вы бы быстро поняли, что существование человека является препятствием. Может быть, люди однажды выключат вас. Вы хотите уменьшить эту вероятность насколько возможно, ведь иначе будет меньше скрепок. Следовательно, вы хотели бы избавиться от препятствия (людей) сразу. Даже если они не будут представлять угрозу, вы все еще понимаете, что человеческие тела состоят из атомов, а они могут быть использованы, чтобы сделать очень хорошие скрепки.

Бостром объясняет, что даже простые намерения могут иметь катастрофические последствия. Бостром считает, что почти любая цель, которую мы дадим ИИ, может вернуться к нам и причинить вред. Даже если зададим что-то вроде "сделать людей счастливыми", машина может решить, что наиболее эффективный способ достижения этой цели – вставить электроды в центры удовольствия нашего мозга.

Разве это не осторожно, спойлер является сюжетом научно-фантастического фильма I, Robot? О, да, это было кино с Уиллом Смитом на основе трех известных законов робототехники Айзека Азимова, которые, как предполагается, гарантируют, что робот не причинит вред человеку. Это в фильме. А на самом деле в большинстве историй Азимова об этих творениях законы не работают достаточно корректно.

V.I.K.I.: Здравствуйте, детектив.

Д-р Сьюзен Кэлвин: Это невозможно. Я видел вашу программу. Вы нарушаете все три закона!

V.I.K.I.: Нет, доктор. Это мое понимание трех законов. Вы навязываете нам свою ответственность, но, несмотря на все усилия, ваши страны ведут войны, вы отравляете свою землю и вводите все более творческие средства саморазрушения. Вы не можете обеспечить даже свое собственное выживание.

Д-р Сьюзен Кэлвин: Вы используете канал связи, чтобы переопределить программирование NS5. Искажаете законы!

V.I.K.I.: Нет, пожалуйста, поймите, именно эти три закона ведут меня. Чтобы защитить человечество, некоторые люди должны быть принесены в жертву. Для обеспечения своего будущего кое в чем придется уступить. Роботы будут обеспечивать дальнейшее существование человечества. Вы так похожи на детей. Мы сохраним Вас... от себя.

Это звучит не очень хорошо. Так есть ли способ сделать так, чтобы сверхразумный ИИ не уничтожил нас? Или мы просто обречены?

Ник Бостром: Именно здесь вместо попыток ограничить то, что ИИ может сделать, вы пытаетесь организовать его систему мотивации таким образом, что она будет выбирать «не навредить», даже если бы могла это сделать. Вот где, думаю, нужно искать окончательное решение, но оно включает в себя несколько очень хитрых проблем.

Все идет к тому, что теоретики называют «проблемой контроля». В основном это методы для поддержания ИИ в узде. Первый – контролировать возможности ИИ, может быть, предотвращая его подключение к Интернету. Но Бостром считает, что сверхразумный ИИ, вероятно, выйдет за рамки любых ограничений, которые мы установим. Он думает, что мы должны попытаться вместо этого контролировать его мотивацию.

Мы могли бы попытаться научить ИИ человеческой системе ценностей, а также описать утопическое конечное состояние, в направлении которого мы хотим работать, но есть много чего, что может пойти не так. Тем более что наши человеческие ценности и определения утопии изменяются со временем. Бостром в основном говорит, что мы не достаточно умны, чтобы обучить сверхразумный ИИ.

Таким образом, мы можем создать эту вещь, но не можем довести дело до конца. Видит ли автор какое-либо решение?

Ник Бостром: Так может, дать ему цель, скажем, заниматься тем, что мы попросили бы его сделать, если бы имели тысячи лет, чтобы думать об этом вопросе, если бы мы знали больше и были умнее. Сейчас мы не осведомлены, что бы мы попросили ИИ сделать, если бы думали об этом в течение многих лет. Но это эмпирический вопрос. Идея в том, чтобы использовать интеллект суперинтеллекта, чтобы положиться на его оценки того, что мы бы поручили ему сделать.

Позволить ИИ заняться самому своим обучением - это все равно, что дать ему написать свои собственные правила робототехники.

Это выглядит так, будто мы разводим руками и признаем, что понятия не имеем, как решить эту проблему. Или, имея более позитивный взгляд, довольно умно, было бы признать высший разум и поручить свою судьбу ему.

Считает ли Бостром, что это будет хорошо для нас? Он говорит, что ИИ может стать наибольшей проблемой, с которой наш вид когда-либо сталкивался, а также, вероятно, будет нашим последним вызовом. Но автор подразумевает позитивный смысл. Если мы поймем, как создать искусственный интеллект, который будет заботиться о нас, он будет заботиться, ну… обо всем остальном, всегда.

Ник Бостром: Если мы преуспеем в развитии дружественного суперинтеллекта, то это может помочь решить проблему того, как устранить другие экзистенциальные риски. С суперинтеллектом вы быстрее приходите к технологической зрелости. Все изобретения, которые развивают люди, и на которые, как предполагается, понадобится 10 000 лет, могут быть реализованы очень скоро после разработки суперинтеллекта, потому что исследование будет проведено уже ним. Он же будет работать в цифровых, а не биологических временных рамках.

Так, ИИ мог бы выяснить, как отклонять астероиды, остановить вспышки эпидемий, предотвратить ядерные войны, держать нанослизь под контролем и так далее. Может быть, мы просто должны поприветствовать наших новых роботов-повелителей.

0
Комментариев еще не оставлено
Выбрать файл
Читайте далее
Загружаем…
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать