Новости ›› Рекорды, интересности

ВВС: Искусственный интеллект несет человечеству три угрозы

22.02.2018 11:00 | просмотров: 499
Риски злонамеренного использования искусственного интеллекта вполне реальны, предупреждают эксперты.

Превращенные в снаряды дроны, фейковые видео, манипулирующие общественным сознанием, и автоматизированный компьютерный взлом - вот три основные угрозы, которые, по мнению экспертов, исходят от искусственного интеллекта, попавшего в плохие руки, сообщил ВВС.

Согласно отчету "Вредоносное использование искусственного интеллекта", он вполне может использоваться странами-изгоями, преступниками и террористами. 100-страничный доклад определяет три сферы - цифровую, физическую и политическую, в которых злонамеренное использование ИИ наиболее вероятно.

В составлении доклада также участвовали некоммерческая исследовательская компания OpenAI, группа по управлению цифровыми правами Electronic Frontier Foundation и Центр новых подходов к охране безопасности США.

Авторы этого доклада призывают к следующему:

Политики и инженеры-разработчики должны совместно определить, каким именно может быть вредоносное использование ИИ и как это предотвратить

Осознать, что в то время как ИИ имеет множество разнообразных применений, это обоюдоострая технология, поэтому ученые и разработчики должны это учитывать и упреждать возможное злонамеренное использование ИИ

Перенять подход, который существует, к примеру, в сфере компьютерных технологий, где уже выработаны предохранительные меры против подобных рисков

Активное расширение круга заинтересованных сторон, связанных с упреждением и смягчением рисков злонамеренного использования ИИ.

Специалист Центра по изучению экзистенциальных рисков при Кембриджском университете Шахар Авин отметил, что в докладе основное внимание уделяется областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет, но нет взгляда в более отдаленную перспективу.

Он также обрисовал несколько сценариев, где ИИ может вдруг в ближайшем будущем "сорваться":

Такая программа, как AlphaGo - ИИ, разработанный компанией Google DeepMind, способный обыграть человека в игру го - может быть использована хакерами для нахождения шаблонов данных и уязвимости кодировки

Некий отдельно взятый злоумышленник может купить дрон, оснастить его программой распознавания лиц и с помощью него напасть на какого-то конкретного человека

Боты могут быть автоматизированы на производство фейковых видеоклипов с целью политических манипуляций

Хакеры могут использовать синтезированную речь для того, чтобы выдать себя за кого-то.

Научный сотрудник Института будущего человечества Оксфордского университета Майлз Брандидж считает, что "ИИ изменит существующие угрозы для отдельных граждан, организаций и государств - будь то на уровне преступников, которые настроят машины на взлом или фишинг информации у отдельных лиц, или же это будет внедрение в частную жизнь путем слежения, профилирования личности и дальнейших репрессий - полный спектр воздействия этого на безопасность огромен".

- Очень часто так бывает, что системы ИИ не просто достигают человеческого уровня производительности, но намного его превосходят.

Это очень печально, однако необходимо рассмотреть те последствия, к которым могут привести сверхчеловеческого уровня хакерство, слежка, методы убеждения и распознавание физической цели, а также возможности ИИ, которые хоть и не достигают человеческого уровня, но тем не менее гораздо лучше варьируются, чем человеческий труд, - полагает ученый.

Шон О'Хэггерти, исполнительный директор Центра по изучению экзистенциальных рисков и один из соавторов доклада, добавляет: "Искусственный интеллект кардинально все меняет, и этот доклад размышляет над тем, как мир может измениться в следующие 5-10 лет.

Мы живем в мире, который может быть подвержен ежедневной опасности злоупотребления ИИ, и мы должны начать заниматься этой проблемой, потому что эти риски вполне реальны".

Источник: kp.ua
Поделиться с новостью друзьями
Комментарии
От:
Проверка на человечность. Введите сегодняшнее число без ведущего нуля
Авторизация
Люди.StudClub
Имя:
Пароль:
Запомнить меня
Главная | Реклама на сайте | Контакты
Наши партнеры: