Frank L. Ruta, Do the benefits of artificial intelligence outweigh the risks
К концу второй мировой войны группа ученых в Америке, работающая над созданием атомной бомбы для Манхэттенского проекта, предупредила, что использование этого оружия неизбежно приведет к геополитическому ландшафту, характеризующемуся гонкой ядерных вооружений. По их словам, это заставит Америку опередить другие страны в создании ядерных вооружений. Они рекомендовали, чтобы, если военные решили использовать оружие, необходимо безотлагательно предпринять международные усилия по нераспространению ядерного оружия. Предупреждения комитета остались без внимания. После ядерных нападений на Хиросиму и Нагасаки оказалось, что они были жутко предсказуемы. Гонка вооружений между Америкой и Советским Союзом обострилась во время холодной войны, и сегодня государства-изгои, такие как Северная Корея, угрожают миру своими ядерными арсеналами. В настоящее время разрабатывается потенциально еще более преобразующая технология: технология, которую можно легко распространить среди стран-изгоев и террористических групп без необходимости в дорогостоящем специализированном оборудовании. Выдающиеся ученые и технологи, такие как покойный Стивен Хокинг и Элон Маск, выразили обеспокоенность по поводу рисков, связанных с ускорением развития искусственного интеллекта (ИИ). Многие эксперты в этой области, такие как Стюарт Рассел, основатель Центра ИИ, совместимого с человеком, в Калифорнийском университете в Беркли, считают, что к опасениям по поводу злоупотребления ИИ следует относиться серьезно. Более 8000 исследователей, инженеров, руководителей и инвесторов подписали открытое письмо, рекомендующее направление для ответственных исследований ИИ, которое учитывает социальные последствия и стремится создать надежную технологию, соответствующую человеческим ценностям.
Чтобы избежать повторения истории, политики должны начать думать о регулировании развития ИИ сейчас, когда само сообщество призывает к политическим действиям. Как и в случае с прошлыми технологиями, хорошо структурированное регулирование может смягчать дорогостоящие внешние эффекты, в то время как плохо информированные меры регулирования могут мешать прогрессу. Политики должны тесно сотрудничать с исследователями для реализации протоколов, которые приводят ИИ в соответствие с человеческими ценностями, не слишком обременительно для разработчиков. Новая область безопасности ИИ уже начала обсуждать руководящие принципы для борьбы с потенциальной опасностью технологии. Сессии, посвященные безопасности и этике ИИ, проходили на крупных научных конференциях, и было опубликовано несколько книг и статей по этой теме. Понимая озабоченность исследователей, регулирующие органы могут противостоять опасностям ИИ, а преимущества технологии значительно перевесят риски. AI - это общий термин для программного обеспечения, которое имитирует человеческое познание или восприятие. Поскольку ИИ включает в себя широкий набор алгоритмов, директивные органы должны применять детальный подход к регулированию, подчеркивая необходимость технического сотрудничества. На высоком уровне проводится различие между узким ИИ и искусственным общим интеллектом (АГИ). Узкий ИИ более интеллектуален или, по крайней мере, быстрее, чем люди, выполняющие определенную задачу или набор задач, например, играют в настольную игру «Го» или находят шаблоны в больших наборах данных. С другой стороны, AGI будет побеждать людей при выполнении ряда когнитивных задач, которые Ник Бостром, философ из Оксфордского университета, назвал «когнитивные сверхдержавы». К ним относятся усиление интеллекта, разработка стратегий, социальные манипуляции, взлом, развитие технологий и экономическая производительность.
Узкий ИИ отвечает за многие полезные инструменты, которые уже стали мейнстримом: распознавание речи и изображений, поисковые системы, фильтры спама, рекомендации по продуктам и фильмам. Список можно продолжить. Узкий ИИ также обладает потенциалом для внедрения перспективных технологий, таких как автомобили без водителя, инструменты для быстрого научного открытия и цифровые помощники для анализа медицинских изображений. В ближайшей перспективе некоторые из этих технологий могут быть использованы злонамеренными группами. Стоимость атак, требующих человеческого труда или опыта, может быть снижена, и могут появиться новые угрозы, использующие уязвимости в системах ИИ. ИИ может автоматизировать трудоемкие кибератаки, координировать парки дронов, обеспечивать массовое наблюдение с помощью распознавания лиц и извлечения социальных данных или создавать реалистичные поддельные видеоролики для политической пропаганды. Кроме того, расширенная автоматизация дает больше физического контроля цифровым системам, делая кибератаки еще более опасными. Регулирование может гарантировать, что инженеры ИИ применяют лучшие практики в области кибербезопасности и ограничивают распространение военных технологий. Учитывая переносимость ИИ, обеспечение соблюдения этих правил будет затруднено, и международное сотрудничество, вероятно, будет необходимо. Некоторые исследователи обеспокоены тем, что, поскольку алгоритмы работают так же хорошо, как и данные, которые они подают, узкий ИИ может принимать необъективные решения. Смещенные или неполные данные обучения будут отражены в выходных данных. Одно исследование с программой машинного обучения, подготовленной на основе текстов, показало, что имена, связанные с тем, что они являются европейскими американцами, с большей вероятностью будут коррелировать с приятной терминологией, чем афро-американские имена. ИИ, которые принимают соответствующие решения, такие как найм кандидатов на работу или прогнозирование рецидивизма, должны быть проверены перед принятием. Регулирующие органы должны будут решить, будет ли ИИ принимать справедливые решения, прочесывая данные о стереотипах.
С другой стороны, вероятность AGI неясна, но некоторые футуристы полагают, что ее непроверенные последствия могут быть апокалиптическими. Некоторые предполагают, что AGI может появиться в течение следующих нескольких десятилетий в так называемом жестком взлете, где его возможности очень быстро увеличиваются, поскольку программа подвергается процессу рекурсивного самосовершенствования. В то же время другие полагают, что интеллектуальные агенты имеют внутренние ограничения для расширения своих предсказательных возможностей автономно, и сценарии конца света маловероятны, если не доказуемо невозможны. Тем не менее, исследователи уже обсуждают опасности, которые может представлять машинный суперинтеллект. В одном тезисе утверждается, что AGI с практически любой запрограммированной целью разработает набор «базовых приводов ИИ», таких как самосохранение, самосовершенствование и получение ресурсов. В этой модели AGI будет мотивированно распространяться по компьютерным сетям и избегать программистов. AGI будет использовать свои когнитивные сверхспособности, чтобы избежать сдерживания и достичь самоопределения. Например, AGI может изучать учебники по психологии и экономике и использовать личную информацию о своих разработчиках, чтобы научиться подкупать свой путь к свободе. Тогда AGI может рассматривать людей как угрозу своему самосохранению и пытаться уничтожить человеческий род. Исследователи предложили несколько способов сдерживания AGI во время тестирования, которые разработчики политики могут использовать в качестве руководства для разработки нормативных актов. Стратегии сдерживания варьируются от фильтрации обучающих данных для получения конфиденциальной информации до существенного затруднения процесса разработки, например, путем ограничения вывода простыми вопросами и ответами «да / нет». Некоторые исследователи предложили разделить процедуры сдерживания на легкие, средние и тяжелые категории. Правила должны избегать замедления прогресса, когда это возможно, поэтому вес сдерживания должен варьироваться в зависимости от зрелости программы AGI.
Сдерживание является краткосрочным решением для тестирования AGI. В долгосрочной перспективе нормативные акты должны обеспечивать, чтобы AGI с доступом к Интернету оставалось неопределенно стабильным и обладало благоприятными свойствами, такими как изучение ценности и корректности, до развертывания. Ценностное обучение - это способность AGI узнать, что люди ценят, и действовать в соответствии с этими ценностями. Под исправимостью понимается отсутствие устойчивости AGI к исправлению ошибок или перекодированию. Можно представить, как будет полезна идеальная AGI с концепцией справедливости и солидарности. Такой AGI может заменить коррумпированные правительства и предвзятые судебные системы, принимая решения в соответствии с определенной демократическим путем целевой функцией. Более того, достаточно сложный AGI может выполнять практически любую работу, выполняемую человеком. Вполне возможно, что экономика будет реструктурирована таким образом, чтобы люди могли свободно развивать свои творческие увлечения, в то время как AGI способствует повышению производительности. Как и в случае с прошлыми технологиями, будут также полезные приложения, которые мы даже не можем предвидеть. Есть много неизвестных в развитии ИИ, и проблемы должны быть встречены с должной осторожностью. Но страх перед неизвестным не должен останавливать прогресс ответственного развития ИИ. Вместо того чтобы игнорировать озабоченности исследователей до тех пор, пока технология не станет зрелой, как в случае с ядерным оружием, правительства должны начать диалог с исследователями ИИ для разработки правил, которые бы уравновешивали практичность с безопасностью. ИИ уже облегчает нашу жизнь, и его прогресс будет продолжать приносить полезные приложения. При наличии правильной политики мы можем работать в будущем, когда системы AGI будут дружественными, а военные приложения искусственного интеллекта - вне рук злонамеренных агентов, в то время как лежащая в основе технология продолжает оставаться драйвером производительности и инноваций.
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|