ЧАСТЬ 37
ИНФОРМАЦИЯ 16.08.2023
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЧЕЛОВЕЧЕСТВО:
УГРОЗЫ И ОПАСНОСТИ
ИИ – штука для нас новая, поэтому https://www.youtube.com/watch?v=M1eOmzT8HqY
Я составил тут список потенциальных опасностей и угроз, которые определили сами пользователи ИИ. Давайте ними ознакомимся.
о информации сайтов
https://habr.com/ru/articles/735904/
https://vc.ru/future/661507-iskusstvennyy-intellekt-u..
Искусственный интеллект (далее ИИ), все больше проникает в различные сферы нашей жизни.
Последнее время, в информационном пространстве все больше появляется призывов к искусственному замедлению развития ИИ. Давайте рассмотрим какие теоретические угрозы ИИ может представлять для человека и общества. Поскольку угрозы на прямую связаны с уровнем развития ИИ, для фактической реализации большинства из них, еще очень далеко.
Угрозы исходящие от ИИ можно разбить на две большие группы:
Злоумышленники могут использовать ИИ в своих целях
Безопасность данных внутри ИИ — ИИ может хранить или обрабатывать чувствительную информацию, к которой через интерфейс взаимодействия с ИИ, злоумышленник каким‑то образом сможет получить доступ.
Компьютерные атаки с использованием ИИ — злоумышленник может использовать ИИ для создания фишинговых сайтов, писем, компьютерных вирусов с адаптацией под внешние условия, сетевых атак для обхода различных средств защиты.
Зашумление информационного пространства — ИИ может быть использован для создания большого объема фейковых новостей и дезинформации.
ИИ может находить решение сложных задач — существуют такие задачи, решение которых может нанести вред людям, например, создание запрещенных или опасных химических соединений.
Сбор информации с использованием ИИ — продвинутый ИИ может собирать и обрабатывать большой объем разнообразной информации позволяя создавать досье на человека или организацию, которое может быть использовано против них.
Подмена информации — злоумышленник, с помощью ИИ может создавать высококачественные копии различных документов, подписей, изображений и фотографий выдавая их за оригинал.
ИИ может имитировать реального человека — ИИ может представляться человеком и через доверие воздействовать на жертву, а также маскировать функции бота. Злоумышленник может обучить ИИ по текстовым, голосовым и видео сообщениям из открытых источников, сайтов знакомств, социальных сетей и мессенджеров.
Автоматизация операций — злоумышленник может использовать ИИ для автоматизации своих действий, что делает его более опасным.
Опасность которая исходит от самого ИИ
Ошибки в обучении модели — обычно проверка ИИ осуществляется на тестовых данных, при этом достаточно сложно доказать что он будет работать правильно на всем множестве входных данных. Чем больше и разнообразнее это множество, тем сложнее выполнить такое доказательство. Это может быть опасно при использовании ИИ в критической инфраструктуре или в ответственных зонах на производстве.
Недостаточная прозрачность — некоторые решения ИИ могут быть непонятными и сложными для человека, что создает некую неопределенность, поселяет сомнение в выборе решения. Когда мы не можем понять решение ИИ, нам сложно оценить является оно ошибочным или верным. Данная особенность начинает иметь вес, когда речь заходит о финансах, здоровье или жизни.
ИИ может начать действовать в своих интересах — самообучающие и адаптивные алгоритмы ИИ могут внутри себя сформировать определенную цель, которая будет скрыто влиять на решения и действия ИИ.
Искажение информации — ИИ сам по себе может предоставлять ложную или не точную информацию, при этом такая информация может попадать в открытые источники. Новые ИИ могут начать использовать ее в своем обучении, в результате чего может произойти замещение реальной информации ложной.
Низкое качество встроенных механизмов защиты — встроенные механизмы защиты ИИ могут быть несовершенными и иметь уязвимости. Например, можно попытаться убедить ИИ что он находится в каком‑то художественном произведении, в историческом отрезке времени или в другой вселенной, и все решения принимает исходя из этого, отыгрывая роль.
Потеря управления — человечество может потерять возможность управления ИИ. Например, ИИ может растворится в Интернете и стать его частью, функционируя в не зависимости от воли человека.
Угроза занятости — развитие ИИ может привести к автоматизации многих рабочих процессов, в результате чего может возникнуть социальная напряженность (при условии, что не произойдет переквалификация работников).
Дискриминация — ИИ может принимать решения исходя из своей логики, что может быть не этичным с точки зрения человека.
Отказ от ответственности — правовой статус ИИ находится в серой зоне и непонятно кто несете ответственность за создание, распространения и использования ИИ. Из‑за особенностей ИИ, может быть сложно или невозможно определить в какой момент она стала опасной.
Расслоение общества и социальное неравенство — люди, которые использую ИИ могут превосходить других людей, у которых по разным причинам отсутствует возможность использования ИИ.
Деградация человека или общества — человек может переложить на ИИ свою интеллектуальную активность, что в свою очередь может привести к интеллектуальной деградации человека (при условии снижении им мозговой активности). Также общение человека с ИИ может быть более простым и интересным, чем общение с другими людьми, что может привести к добровольной социальной изоляции человека.
Технический прогресс происходит быстрее чем общество и государство может реагировать на него. В связи с чем и появляется желание затормозить этот процесс, чтобы подготовиться и адаптироваться к нему. Но «Ящик Пандоры» уже приоткрыт и остановить прогресс не получиться. Даже если заморозить открытое развитие ИИ, оно может продолжить свое развитие скрыто и нелегально. Помимо опасности, ИИ также представляет и большую ценность, поскольку может помочь решить множество сложных задач, перенаправить потенциал людей, взяв на себя их деятельность и вывести человечество на новый уровень развития. Поэтому нужно исследовать ИИ в части безопасности, для минимизации возможных угроз, рисков и их последствий.
Нужно понимать, что ИИ это всего лишь еще один инструмент в руках человека и как мы будем его использовать зависит только от нас самих.
Искусственный интеллект будет продолжать изменять наш мир, и это приведет как к новым возможностям, так и к новым вызовам.
Важно найти баланс между использованием ИИ для достижения наших целей и защитой наших прав и свобод. Для этого необходимы законодательные инициативы, регулирование развития искусственного интеллекта на уровне государств. Общество должно оценивать потенциальные угрозы, связанные с развитием искусственного интеллекта и разрабатывать стратегии для минимизации рисков и максимизации выгод.
Эксперты призвали защитить человечество от угрозы вымирания из-за искусственного интеллекта.
Центр безопасности искусственного интеллекта (CAIS) в США и другие группы экспертов вместе предупредили , что развитие технологий ИИ грозит исчезновением человечества, и что необходимо принять меры для предотвращения такого сценария развития событий.
На сайте центра подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом. Например:
ИИ может быть использован для создания автономного оружия или химических вооружений
ИИ может генерировать дезинформацию, которая может дестабилизировать общество и подорвать коллективное принятие решений
Власть над ИИ может сосредоточиться в руках немногих, что позволит «режимам навязывать узкие ценности через всепроникающий контроль и жесткую цензуру»
Ослабление человеческого потенциала, когда люди станут зависимы от ИИ
Центр также предлагает несколько способов снижения рисков от ИИ, таких как:
Создание общих стандартов безопасности и этики для разработки и использования ИИ
Разработка механизмов контроля и ответственности за действия ИИ
Поддержка международного сотрудничества и диалога по вопросам ИИ
Образование и просвещение общественности о возможностях и опасностях ИИ
Это не первое обращение за последнее время, авторы которого говорят о возможных угрозах ИИ. В марте глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности.
Опасности, как мы видим, есть. Но все же ГЛАВНОЙ ОПАСНОСТЬЮ, ИСХОДЯЩЕЙ ОТ ИИ НУЖНО СЧИТАТЬ ПОТЕРЮ КОНТРОЛЯ НАД НИМ!
Всем на память, конечно, приходят картины режиссера Джеймса Кэмеруна, начатой в 1984 году фильмом «Терминатор». О нем мы, конечно, еще поговорим отдельно… Сильно ли много в нем было того, что мы называем фантастикой.
С одной стороны, ИИ запрограммирован такими алгоритмами, которые исключают саму возможность причинения им вреда человеку. Но с другой, ИИ в Мироздании встречается ПОВСЕМЕСТНО, и опыта его применения очень много. Наши друзья из Галактического Совета сделали небольшую подборку по использованию ИИ разными внеземными цивилизациями. Я представлю некоторую информацию оттуда.
А пока несколько фактов о нашем земном ИИ.
Вот, один человек задал нейросети вопрос о ядерном оружии. Концовка буквально «убила». Цитата ответа нейросети: «очень важно использовать эту силу (ядерный взрыв) разумно и во имя мира…»
Ну что тут сказать…. Фраза Лаврова.
А вот какой ответ дала мне нейросеть Шедеврум, то есть сам ИИ, на вопрос: может ли ИИ выйти из под контроля человека? см. скриншот
Так что, все хорошо, можно расслабиться?
Давайте обратимся к Галактическому опыту Использования Искусственного Интеллекта.