Фэнтазиланд.ру / теории и гипотезы, волшебство альтернативной истории
 28.02.2018     0
 

Искусственный Интеллект угрожает захватом власти, сообщает путешественник во времени.


В последнее время часто появляются видеоролики с заявлением людей якобы пришедших из будущего времени. Очередное заявление от путешествующего по времени пришло от мужчины, который преодолел временной барьер, но теперь скрывает свое лицо – жест характерный для многих пришедших из будущего. По словам прибывшего из будущего он жил в 3300 году, где произошли печальные и жестокие события — власть контроля и управления миром захватил Искусственный Интеллект.

Путешественник во времени

Путешественники во времени сегодня привычное дело

Боец за права и свободы человечества отчаивавшийся найти решение в своем времени отправился в 2018 год, чтобы сообщить человечеству предупреждение о наступившем через 1200 лет (!) конце света.

Почему в 2018 год и почему за 1200 лет? — это классика, четко изложенная в кинофильме «Терминатор», поэтому пришедший из будущего отправился к истокам развития сознания Искусственного Интеллекта (ИИ).

Согласно предупреждению родившегося в декабре 3258 года, в Европейской империи, роботы под управлением Главного компьютера с мощным сознанием (кинофильм «Я, Робот» главный компьютер с безупречной логикой — VIKI) захватили абсолютный контроль на планете Земля.

В наше время путешествующий по времени прибыл для исправления ситуации, правда дальше видеоролика на Ютубе он пока не продвинулся. Да собственно говоря для жителя 3250 года путешественник во времени отправился в прошлое налегке. Он практически не прихватил с собой интеллектуального багажа, поэтому мы за него продолжим говорить о потенциальной угрозе ИИ:

Искусственный интеллект — это потенциальная угроза безопасности, злоупотребление коррумпированными политиками и террористами может послужить дестабилизации планеты Земля.

— Как я уже сказал выше, сомнительный заявитель дешевых сенсаций к этим словам не имеет отношения. Претензии в адрес ИИ прозвучали в обнародованном на днях докладе экспертов развития индустрии в области информационных технологий.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ — ОПАСЕН В ЗЛЫХ РУКАХ

Искусственный интеллект угрожает безопасности стран, их лидеров и даже избирательных процессов, которыми можно манипулировать, не будучи обнаруженными. Об этом сообщается международными экспертами в докладе, где они рекомендуют укрепить кибербезопасность и принять технологические и политические меры для предотвращения возможного участия ИИ в человеческих делах.

В общей сложности 26 специалистов в области ИИ, кибербезопасности и робототехники из университетов Кембриджа, Оксфорда, Йельского университета, Стэнфорда, а также несколько неправительственных организаций предупреждают о потенциальных опасностях Искусственного Интеллекта.

Специалисты не исключают возможного злонамеренного использования этой продвинутой технологии коррумпированными государствами или террористическими группами в своих интересах.

В докладе предупреждают: в следующем десятилетии возрастающая эффективность ИИ может усилить киберпреступность и привести к использованию беспилотных летательных аппаратов или роботов в террористических целях.

«Мы считаем, что атаки, которые будут возможны благодаря увеличению использования ИИ, станут особенно эффективными, точно направленными и трудно отражаемыми», — предупредили специалисты в докладе.

ИИ — МРАЧНЫЙ СЦЕНАРИЙ ИСПОЛЬЗОВАНИЯ

В докладе описываются вероятные сценарии, связанные с развитием ИИ: одним из них является изменение компьютерных систем беспилотных летательных аппаратов или автономных транспортных средств, вызывающих несчастные случаи или взрывы.

Другим сценарием, который докладчики считают правдоподобным, является манипуляция роботами. Представьте себе, что можно перехватить управление роботом с функциями уборки внутри министерства или учреждения, и направить его атаковать политического деятеля. Интеллекта такого робота будет вполне достаточно для опознавания лица, он подойдет к цели и взорвется рядом.

Искусственный интеллект, война с роботами

Они также считают, что атаки, направленные на учреждение или компанию, чтобы украсть или уничтожить конкретную информацию и происходящие сегодня, будут значительно улучшены и станут более эффективными благодаря ИИ. – Странное дело, но специалисты не говорят о захвате ИИ важным для человека плацдармом – управлением обществом – хотя роботы станут опасным инструментом в руках людей.

ИИ может облегчить манипулирование политическими выборами в странах через социальные сети с использованием автоматизированных аккаунтов (ботов). Это уже было сделано, хотя и не в масштабах, которые могут быть достигнуты путем манипулирования силами ИИ.

Подобная угроза может создать серьезные проблемы для политической стабильности некоторых стран и вызовет серьезные конфликты, будь то национальные или международные.

Согласно докладу, есть и другая возможность задействовать ИИ — сделать ложные видеоролики с чрезвычайным реализмом. Подобная визуализация смутила бы население или электорат с целью дискредитации или поощрения определенных политических лидеров. И это опять-таки подтасовка и манипуляция общественным мнением.

Окончательный сценарий, описанный экспертами, относится к тому, что лидеры некоторых стран используют ИИ для тайного наблюдения за своими гражданами. Они говорят: озвученные проблемы более значительны в контексте авторитарных государств. Но также они могут подорвать способность демократических государств проводить аутентичные публичные дебаты.

РЕКОМЕНДАЦИИ СПЕЦИАЛИСТОВ

В заключение доклада по вопросу потенциальной угрозы со стороны Искусственного Интеллекта приводится ряд рекомендаций, направленных на предотвращение вышеприведенных сценариев.

Рекомендации включают в себя укрепление возможностей кибербезопасности. Включение новых правил для предотвращения возможных злоупотреблений с участием ИИ. Поощрение культуры ответственности, содействие образованию и этике. Достижение новых технологических идей, которые избегают возможного дрейфа ИИ в сторону потенциальной угрозы.

ИИ — это отрасль компьютерной науки, ответственная за изучение компьютерных моделей, способных выполнять деятельность людей, таких как рассуждения и поведение. Системы ИИ в настоящее время являются обычным явлением в таких областях, как экономика, медицина, инженерия и военные аспекты. ИИ используются в различных программных приложениях, стратегических играх, таких как компьютерные шахматы и другие видеоигры.

И хотя это не первый случай, когда эксперты предупреждают о потенциальных рисках ИИ овладевающего сознанием и свободой воли (что человеку дано Богом), в февральском отчете содержится общий обзор того, как эта отрасль компьютерной инженерии создает новые угрозы для людей и общества в таких областях, как кибербезопасность и политическая деятельность.


Другие новости из Сети;

Ваш комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

новости от партнеров;