.

22.02.2018
Джейн Уэйкфилд, ВВС
Три угрозы человечеству, которые несет искусственный интеллект

Превращенные в снаряды дроны, фейковые видео, манипулирующие общественным сознанием, и автоматизированный компьютерный взлом - вот три основные угрозы, которые, по мнению экспертов, исходят от искусственного интеллекта, попавшего в плохие руки.

Согласно опубликованному отчету «Вредоносное использование искусственного интеллекта», ИИ вполне может использоваться странами-изгоями, преступниками и террористами.

Те, кто производят робототехнику и системы искусственного интеллекта, должны прикладывать больше усилий к тому, чтобы их технология не была применена во вред, предупреждают авторы доклада и призывают правительства подумать о принятии новых законов.

Специалист Центра по изучению экзистенциальных рисков при Кембриджском университете Шахар Авин сказал Би-би-си, что в докладе основное внимание уделяется областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет, но нет взгляда в более отдаленную перспективу.

Особую тревогу вызывают новые методы обучения, применяемые к ИИ, когда робототехника доводится до уровня сверхчеловеческих интеллектуальных возможностей, но не имеет при этом ни примеров для подражания, ни руководства на человеческом уровне.

Авин обрисовал несколько сценариев, где ИИ может вдруг в ближайшем будущем «сорваться»:

   Такая программа, как AlphaGo - ИИ, разработанный компанией Google DeepMind, способный обыграть человека в игру го - может быть использована хакерами для нахождения шаблонов данных и уязвимости кодировки

   Некий отдельно взятый злоумышленник может купить дрон, оснастить его программой распознавания лиц и с помощью него напасть на какого-то конкретного человека

   Боты могут быть автоматизированы на производство фейковых видеоклипов с целью политических манипуляций

   Хакеры могут использовать синтезированную речь для того, чтобы выдать себя за кого-то

Майлз Брандидж, научный сотрудник Института будущего человечества Оксфордского университета, сказал по этому поводу следующее: «ИИ изменит существующие угрозы для отдельных граждан, организаций и государств - будь то на уровне преступников, которые настроят машины на взлом или фишинг информации у отдельных лиц, или же это будет внедрение в частную жизнь путем слежения, профилирования личности и дальнейших репрессий - полный спектр воздействия этого на безопасность огромен».

- Очень часто так бывает, что системы ИИ не просто достигают человеческого уровня производительности, но намного его превосходят.

Это очень печально, однако необходимо рассмотреть те последствия, к которым могут привести сверхчеловеческого уровня хакерство, слежка, методы убеждения и распознавание физической цели, а также возможности ИИ, которые хоть и не достигают человеческого уровня, но тем не менее гораздо лучше варьируются, чем человеческий труд, - полагает ученый.

Шон О'Хэггерти, исполнительный директор Центра по изучению экзистенциальных рисков и один из соавторов доклада, добавляет:

- Искусственный интеллект кардинально все меняет, и этот доклад размышляет над тем, как мир может измениться в следующие 5-10 лет. Мы живем в мире, который может быть подвержен ежедневной опасности злоупотребления ИИ, и мы должны начать заниматься этой проблемой, потому что эти риски вполне реальны.

Выбор надо делать уже сейчас, и наш доклад - это призыв начать действовать правительствам, организациям и отдельным лицам по всему миру. В течение долгих десятилетий шумиха вокруг ИИ и его способностей опережала реальность. Но теперь это не так. Это доклад рассматривает существующие в мире подходы, которые больше не работают, и предлагает более широкомасштабный подход: например, как создать программное обеспечение и микропроцессоры, которые труднее было бы взломать, и какие в поддержку этому нужно принять законы и международные уложения.

100-страничный доклад определяет три сферы - цифровую, физическую и политическую, в которых злонамеренное использование ИИ наиболее вероятно.

В составлении доклада также участвовали некоммерческая исследовательская компания OpenAI, группа по управлению цифровыми правами Electronic Frontier Foundation и Центр новых подходов к охране безопасности США.

 
Оцени статью:
1
2
3
4
5
Средний балл - 4.3 (оценок:7)