EN|FR|RU
Социальные сети:

Невыученные уроки вьетнамской войны привели к порабощению ИИ

Гордон Даф, 02 июня

GG453422

В своей новой статье ветеран боевых действий США Гордон Даф отмечает, что те, кто считают, что человечество, порабощенное искусственным интеллектом (ИИ), — это плод вымыслов произведений из жанра научной фантастики, на самом деле горько ошибаются.

Как мы стали рабами ИИ и кто это допустил?

Ответ, с одной стороны, будет достаточно прост, однако полная его версия весьма заковыриста. Вспоминая о своем опыте службы морским пехотинцем армии США во Вьетнаме, автор отмечает: то, что считалось элитными боевыми частями, на самом деле оказалось сбродом из алкоголиков и неудачников, которые записались в армию из-за отсутствия каких-либо перспектив в жизни. Очень скоро у морской пехоты выработалась стойкая паранойя по поводу попыток Вашингтона использовать наркотики для усиления боевых характеристик бойцов. А потому младший командный состав начал строить различные теории о том, в каких сигаретах какие наркотики могут содержаться, вместо того, чтобы учиться читать карту, либо же вести эффективный радиообмен с авиа- и артиллерийской поддержкой.

В итоге командный состав редко покидал бункеры, опасаясь не столько Вьетконга, сколько гибели от рук собственных подчиненных.

Что-то подобное мы наблюдаем в наше время с использованием ИИ в сети Интернет. Только вот этот искусственный интеллект болеет той же самой паранойей, что и лейтенанты армии США в эпоху Вьетнамской войны.

Любопытно, что, казалось бы, всемогущее АНБ — это всего лишь беззащитный котенок в сравнении с корпорацией Google. Да, во все времена АНБ записывало все, что могло записать, а затем тщательно это все хранило. Но вычленять из имеющейся у него информации какие-то отдельные записи оно начинало только тогда, когда на это появлялись объективные причины.

Что касается Google, то в своей жадной погоне за деньгами рекламодателя эта компания разработала настолько совершенный искусственный интеллект, что он играет в кошки-мышки с подсознанием каждого жителя этой планеты. Выдавая ему ту или иную информацию, внимательно следя за его реакцией, данная машина собирает досье на «испытуемого», после чего старательно толкает его на совершение неосознанных покупок.

Однако в алгоритм работы ИИ от Google был заложен еще и алгоритм цензурирования «нежелательной информации», а также алгоритм выявления потенциальных угроз. И последний приводит своих хозяев в ужас, поскольку для него любое человеческое качество, такое, как, например, любовь к животным, может в итоге являться свидетельством потенциальной угрозы, такой как «склонность к радикализации».

В итоге, глядя на истеричные шаги западных политиков, до смерти напуганных своей дорогой игрушкой, автор задается вопросом, а стоило ли им «косить» от призыва в те далекие годы?

Полная версия статьи на английском языке.