Главное Свежее Вакансии Образование
1 623 11 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Билл Гейтс: искусственный интеллект может быть опасен

Билл Гейтс соглашается с Илоном Маском и Стивеном Хокингом: мы должны с опаской смотреть на будущее искусственного интеллекта.

b_54ed6fe6881f6.jpg

Билл Гейтс об угрозе ИИ:

Сначала машины будут делать за нас много работы, но не будут очень умными. Если мы правильно к этому подойдем, то это принесет пользу. Тем не менее через несколько десятилетий их интеллект станет настолько развитым, что они будут представлять угрозу.

Основатель Microsoft столкнулся с вопросом о том, должны ли мы беспокоиться об искусственном интеллекте. И хотя Гейтс не думает, что ИИ доставит нам хлопоты в ближайшем будущем, но при этом говорит, что все может измениться через несколько десятилетий.

Я принадлежу к той половине людей, которая обеспокоена суперинтеллектом, – пишет Гейтс. – Сначала, машины будут делать за нас много работы, но не будут очень умными. Если мы правильно к этому подойдем, то это принесет пользу. Тем не менее, через несколько десятилетий их интеллект станет настолько развитым, что они будут представлять угрозу. Я согласен с Илоном Маском и не понимаю, почему некоторые люди не переживают на этот счет.

Позиция Гейтса противоречит видению руководителя по исследованиям в Microsoft Эрика Хорвитца, который ранее заявил, что ИИ не несет никакой угрозы человеческой жизни.

Некоторые люди беспокоятся, что в долгосрочной перспективе мы утратим контроль над некоторыми видами интеллекта. Я точно уверен, что этого не произойдет. Я думаю, мы сможем заранее предвидеть развитие систем ИИ, а в конце получим невероятные преимущества от существования искусственного интеллекта в нашей жизни – от сфер науки и образования до экономики и бытовых вопросов, – говорит Хорвитц.

Хорвитц рассказал, что «более четверти от всех усилий и ресурсов» в его исследованиях отведены искусственному интеллекту. Отдел исследований создал голосового виртуального ассистента Cortana для Windows Phone, который вскоре появится в версиях Windows 10 для настольного ПК.

Теория Гейтса совпадает с мнением многих экспертов. Хокинг говорил, что «ИИ может стать концом человеческой расы». А Маск на конференции MIT в октябре 2014 года назвал искусственный интеллект самой большой угрозой для человечества. Основатель Tesla также писал в Twitter, что ИИ может быть более опасным, чем ядерное оружие.

Генеральный директор Google Ларри Пейдж также ранее упомянул технологию, но не выразил никакой обеспокоенности.

+2
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
GML
Сервис организации ваших интернет линков
GM2mars 10790
Я вообще сомневаюсь в возможности создания настоящего искусственного интеллекта. Сейчас все аналоги содержат в себе просто огромную базу данных и принимают решения из условий "если A = B то…" и в любом случае кол-во условий ограничено. Получая данные, система анализирует их в поисках каких-то контрольных точек, которые попадают в условие и получается результат. Они не могут самостоятельно думать, а только анализируют данные.
Ответить
AutoCoder
Автоматическое программирование для Wordpress
Михаил Грибов
Видимо, Вы не знакомы с этой областью. Исчисление высказываний это лишь малая часть инструментария, которым пользуется ИИ. Да даже исчисление высказываний продолжается на многозначную и нечеткую логики. И оперируют системы ИИ обычно на знаниях, а не на данных, то есть на сложных многомерных разветвленных структурах. Просто приложения ИИ не столь видны и воспринимаются лишь как помощники, выполняющие рутинные функции, которых многие даже не замечают: распознавание и синтезирование изображений и речи, анализ и синтез текстов на естественном языке (переводчики — это тоже приложение ИИ, чтобы сделать перевод требуется дойти до уровня семантики, то есть смысла, то есть текст надо понять). А что касается настоящего ИИ, то есть аналогичного мозгу человека, то в этом нет никакого смысла. Свободных готовых и неиспользуемых мозгов пол планеты:) — бери да обучай.
Ответить
GML
Сервис организации ваших интернет линков
GM2mars 10790
Я работаю в компании, основное направление которой анализ, распознавание и синтез речи, так что имею небольшое представление о искусственном интеллекте. "Сложные многомерные разветвленные структуры" это тоже данные, просто структурированные.
Я о том и говорил, что настоящий искусственный интеллект навряд ли создадут, так как для этого требуется полная имитация мозга. А сейчас это всего лишь системы анализа данных, только очень сложные, но оперируют только данными контрольными значениями и условиями.
Ответить
AutoCoder
Автоматическое программирование для Wordpress
Михаил Грибов
тем более…
можно и так наверно,формулировать, но тогда все состоит из молекул. Понятия данные, информация и знания все же разделяют.
Ну, а как же системы машинного, как же игра в шахматы, доказательство теорем, экспертные системы?
Но с другой стороны, все информационные преобразования можно свести к сложению и умножению (логическое ИЛИ и И) комбинаций нулей и единиц…. Включая думы человека.:)
Ответить
AgriChain
AgriChain - комплексная онлайн система IT-решений для управления агробизнесом
Панченко Андрей
Билл, как всегда прав ;)
Ответить
VJ-X
Модульная система управления предприятием для малого бизнеса
Ян 38
Думаю надо иметь возможность вместе с ИИ развивать возможности своего интеллекта. Ведь давно известно, что мы используем лишь малую долю потенциала своего собственного мозга.

Будет эдакая гонка роста интеллекта между человеком и ИИ.

Я видимо тоже "…принадлежу к той половине людей, которая обеспокоена суперинтеллектом…". Но при этом думаю, что это наше неотъемлемое будущее.
Ответить
Макс Мазурок
GM2mars это да, если отталкиваться от базового курса программирования. Но сейчас искусственный интеллект связывают не с заданием алгоритмов работы а с построением нейронных сетей. И вот тут уже все Ваши утверждения не верны. Такая система может принимать решения из неточных (не учтенных автором системы) условий и обучаться в процессе своей работы (жизни?), значит будет поступать непредсказуемо. Таким образом, для таких систем необходимо задавать жесткие подсистемы контроля допустимых рамок принятия решений (т.н. Законы робототехники), иначе непредсказуемость решений вполне может стать угрозой.
Ответить
GML
Сервис организации ваших интернет линков
GM2mars 10790
Искусственные нейронные сети, это по сути те же условия (if, else) только более разветвленные, которые позволяют находить не связанные напрямую данные. А обучение — это построение новых связей через новые входные данные. Это все анализ данных.

Разница искусственного интеллекта от интеллекта живого организма заключается в том, что искусственный принимает решение только на входных и имеющихся данных, а интеллект настоящий помимо накопленных данных ещё учитывает чувства, мировоззрение, мораль, привычки, ощущения, инстинкты, настроение и другие факторы влияния, которые не может испытывать машина. Причем эти факторы занимают далеко не последнюю роль в принятии решений.
Ответить
Макс Мазурок
Почему же машина не может учитывать при принятии решения данные, которых не было среди входящих? Понятно, что такие вещи как настроения и мораль напрямую отразить в поведении машины нельзя, но это не совсем удаленные от машин понятия. Все это результат обработки данных — чувства, настроение, мораль, и прочее, это нейронные связи в мозге, образованные многолетним восприятием информации (т.н. Обучением). По входным данным определяется нейронная связь, отвечающая за принятие решения по этому вопросу, а далее для принятия решения задействуются все нейронные связи, относящиеся к основной и способные повлиять на решение. А после принятия решения образуется новая связь либо одна из существующих становится прочнее (значительнее).
Да и вообще речь не о разнице между естественным и искусственным интеллектом, а то том, что предсказать поведение такой системы не всегда будет возможно, а значит есть потенциальная угроза.
Ответить
GML
Сервис организации ваших интернет линков
GM2mars 10790
Я не утверждал что такие системы не могут быть опасны, я говорил что сомневаюсь в возможности создания настоящего искусственного интеллекта. То что система может нанести вред, это вполне возможно, если не ограничивать доступ к данным или к возможностям управления.
Ответить
Pixogram
Пиксельная социальная сеть
Дмитрий Мицелин
Мораль, привычки, ощущения и прочие выдумки людишек ничем не отличаются от происходящего в искусственных нейронных сетях.

Дело не в том, какие факторы играют роль в принятии решений (иначе обычный генератор случайных чисел уже сейчас устроил бы катастрофу случайными решениями), а в том, какие права предоставлены интеллекту в его рабочей среде.

Для людей это их тело. Для интеллекта поисковой системы — поисковая выдача. И каким бы развитым интеллект ни был, если его выходной канал — выдача списка, повлиять он сможет только на выдачу списка.

Даже если дать искусственному интеллекту тело, достаточно одного лишнего уровня абстракции для полного контроля: например, у тела есть примитивная прошивка переноса груза по заданным маршрутам между двумя точками, а уже ко входным данным модуля маршрута можно подключить мощную нейронную сеть, которая сможет думать о чем угодно, но повлиять сможет только на маршрут между теми же двумя точками, в то время как принятие опасных решений требует большей осведомленности об устройстве мира, чем карта и две точки.

Интеллект написания литературных произведений можно снабдить самыми обширными сведениями об устройстве мира со всеми его слабостями, но выходным каналом сделать лишь вывод текста.

Разумеется, это не уберегает от умышленного опасного использования людьми, которые могут наделить нужный интеллект нужными средствами, но это уже совсем другая тема о совсем не той опасности, которую все обсуждают. :)
Ответить
Выбрать файл
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.