Laclavedefa

Latest News Updates

Восстание роботов-убийц: эксперты показывают, насколько мы близки к захвату власти в стиле Терминатора

Восстание роботов-убийц: эксперты показывают, насколько мы близки к захвату власти в стиле Терминатора


Прошло ровно 40 лет с тех пор, как «Терминатор» вышел на большой экран, шокировав кинозрителей устрашающим изображением постапокалиптического будущего.

В эпическом научно-фантастическом блокбастере Джеймса Кэмерона миллиарды людей погибают, когда машины, обладающие самосознанием, развязывают глобальную ядерную войну примерно в начале XXI века.

Арнольд Шварценеггер играет одноименного робота-убийцу, отправленного в прошлое с 2029 по 1984 год, чтобы устранить угрозу человеческого сопротивления.

Как известно, Терминатор, который выглядит как взрослый человек, «абсолютно не остановится… пока ты не умрешь», как выразился один персонаж.

Хотя это звучит как чисто научная фантастика, академические и промышленные деятели, включая Илона Маска, опасаются, что человечество действительно будет уничтожено ИИ.

Но когда именно это произойдет? И станет ли гибель человечества отражением апокалипсиса, изображенного в голливудском фильме?

MailOnline поговорил с экспертами, чтобы выяснить, насколько мы близки к захвату власти в стиле Терминатора.

Восстание роботов-убийц: эксперты показывают, насколько мы близки к захвату власти в стиле Терминатора

В эпическом научно-фантастическом блокбастере Джеймса Кэмерона, вышедшем в кинотеатры США в пятницу, 26 октября 1984 года, Арнольд Шварценеггер играет одноименного робота-убийцу.

В классическом фильме цель Терминатора проста – убить Сару Коннор, жительницу Лос-Анджелеса, которая родит Джона, который возглавит восстание против машин.

Терминатор оснащен оружием и непробиваемым металлическим экзоскелетом, а также развитым зрением и сверхчеловеческими конечностями, которые могут с легкостью раздавить или задушить нас.

Натали Крамп, партнер компании по обработке данных JMAN Group, сказала, что реальный эквивалент Терминатора в реальном мире возможен, но, к счастью, это, скорее всего, не произойдет при нашей жизни.

«В будущем возможно все, но мы еще далеки от того, чтобы робототехника достигла уровня, когда машины, подобные Терминатору, смогут свергнуть человечество», — сказала она MailOnline.

По мнению эксперта, роботы гуманоидного типа, такие как Терминатор, сейчас не являются наиболее вероятным путем развития робототехники и искусственного интеллекта.

Скорее, более актуальной угрозой в отрасли являются машины, которые уже широко используются, такие как дроны и автономные автомобили.

«На пути к тому, чтобы такой робот эффективно работал, существует очень много препятствий – не в последнюю очередь то, как вы его приводите в действие и координируете движения», – сказал Крэмп MailOnline.

«Основная проблема заключается в том, что на самом деле это не самая эффективная форма, которую робот может использовать, чтобы быть полезным.

Терминатор оснащен оружием и непробиваемым металлическим экзоскелетом, а также массивными сверхчеловеческими конечностями, которые могут с легкостью раздавить или задушить нас.

Терминатор оснащен оружием и непробиваемым металлическим экзоскелетом, а также массивными сверхчеловеческими конечностями, которые могут с легкостью раздавить или задушить нас.

«Если мы размышляем о том, какие типы ИИ-устройств могут «выйти из-под контроля» и причинить нам вред, то это, скорее всего, будут предметы повседневного обихода и инфраструктура – ​​беспилотный автомобиль, который работает со сбоями, или вышедшая из строя энергосистема».

Марк Ли, профессор искусственного интеллекта в Университете Бирмингема, сказал, что апокалипсис в стиле Терминатора произойдет, когда «любое правительство окажется достаточно безумным, чтобы передать контроль над национальной обороной ИИ».

«К счастью, я не думаю, что найдется нация, достаточно сумасшедшая, чтобы подумать об этом», — сказал он MailOnline.

Профессор Ли согласился с тем, что существуют различные виды ИИ, вызывающие более насущную озабоченность, в том числе лежащие в их основе мощные алгоритмы.

«Непосредственная опасность ИИ для большинства людей заключается в его влиянии на общество по мере того, как мы переходим к системам ИИ, которые принимают решения по таким обыденным вещам, как заявки на работу или ипотеку», — сказал он MailOnline.

«Однако значительные усилия прилагаются и в военных приложениях, таких как управляемые ракетные системы с искусственным интеллектом или дроны.

«Здесь нам нужно быть осторожными, но беспокойство вызывает то, что даже если западный мир согласится с этическими рамками, другие страны могут этого не сделать».

Цель Терминатора проста — убить Сару Коннор, жительницу Лос-Анджелеса, которая родит Джона, который возглавит восстание против машин.

Цель Терминатора проста — убить Сару Коннор, жительницу Лос-Анджелеса, которая родит Джона, который возглавит восстание против машин.

Доктор Том Уоттс, исследователь американской внешней политики и международной безопасности в Лондонском университете Ройал Холлоуэй, заявил, что «крайне важно», чтобы люди-операторы продолжали осуществлять контроль над роботами и искусственным интеллектом.

«Все международное сообщество, от таких сверхдержав, как Китай и США, до небольших стран, должно найти политическую волю к сотрудничеству и справиться с этическими и юридическими проблемами, возникающими в результате военного применения ИИ в это время геополитических потрясений», он пишет в новой статье для The Conversation.

«От того, как страны справятся с этими проблемами, будет зависеть, сможем ли мы избежать антиутопического будущего, которое так ярко представлено в «Терминаторе», даже если в ближайшее время мы не увидим киборгов, путешествующих во времени».

В 1991 году был выпущен чрезвычайно успешный сиквел «Терминатор 2: Судный день», изображающий «дружественную» перепрограммированную версию одноименного бота.

Гуманоидный антагонист фильма по имени Т-1000 может бежать со скоростью автомобиля и в одной запоминающейся сцене сжижается, проходя сквозь металлические решетки.

К сожалению, исследователи в Гонконге работают над тем, чтобы воплотить это в жизнь, разработав небольшой прототип, который может переключаться между жидкой и твердой стадиями.

В целом, создание ходячего говорящего робота со смертоносными способностями будет более сложной задачей, чем разработка системы программного обеспечения, которая будет выполнять функции его мозга.

С момента выхода «Терминатор» был признан одним из величайших научно-фантастических фильмов всех времен.

В прокате он заработал более чем в 12 раз больше своего скромного бюджета в 6,4 миллиона долларов США, что составляет 4,9 миллиона фунтов стерлингов по сегодняшнему обменному курсу.

Доктор Уоттс считает, что величайшим наследием фильма стало «искажение того, как мы коллективно думаем и говорим об искусственном интеллекте», который сегодня представляет «экзистенциальную опасность, которая часто доминирует в общественных дискуссиях».

Илон Маск входит в число технологических лидеров, которые помогли сосредоточить внимание на предполагаемом экзистенциальном риске ИИ для человечества, часто ссылаясь на фильм.

Хронология комментариев Илона Маска об искусственном интеллекте

Маск уже давно и очень громко осуждает технологии искусственного интеллекта и меры предосторожности, которые следует принимать людям.

Маск уже давно и очень громко осуждает технологии искусственного интеллекта и меры предосторожности, которые следует принимать людям.

Илон Маск — одно из самых выдающихся имен и лиц в сфере разработки технологий.

Предприниматель-миллиардер возглавляет SpaceX, Tesla и компанию Boring.

Но хотя он находится на переднем крае создания технологий искусственного интеллекта, он также остро осознает их опасности.

Вот подробный график всех предчувствий, мыслей и предупреждений Маска об ИИ на данный момент.

август 2014 г. — «Нам нужно быть очень осторожными с ИИ. Потенциально более опасно, чем ядерное оружие».

Октябрь 2014 г. – «Я думаю, нам следует быть очень осторожными в отношении искусственного интеллекта. Если бы мне пришлось угадывать, в чем заключается наша самая большая экзистенциальная угроза, то, вероятно, это было бы так. Поэтому нам нужно быть очень осторожными с искусственным интеллектом».

Октябрь 2014 г. – «С помощью искусственного интеллекта мы вызываем демона».

июнь 2016 г. – «Хорошая ситуация со сверхразумным ИИ заключается в том, что мы будем настолько ниже по интеллекту, что будем подобны домашнему животному или домашней кошке».

июль 2017 г. — «Я думаю, что ИИ — это нечто рискованное на уровне цивилизации, а не только на уровне индивидуального риска, и именно поэтому он действительно требует большого количества исследований в области безопасности».

июль 2017 г. – «Я знаком с самым передовым искусственным интеллектом, и я думаю, что люди должны действительно беспокоиться об этом».

июль 2017 г. – «Я продолжаю бить тревогу, но пока люди не увидят роботов, идущих по улице и убивающих людей, они не знают, как реагировать, потому что это кажется таким неземным».

август 2017 г. — «Если вас не беспокоит безопасность ИИ, вам следует беспокоиться. Гораздо больший риск, чем в Северной Корее».

ноябрь 2017 г. – «Возможно, вероятность успеха составляет от пяти до десяти процентов». [of making AI safe].’

март 2018 г. – «ИИ гораздо опаснее ядерного оружия. Так почему же у нас нет регулирующего надзора?»

апрель 2018 г. – ‘[AI is] очень важная тема. Это повлияет на нашу жизнь так, как мы сейчас даже не можем себе представить».

апрель 2018 г. – ‘[We could create] бессмертный диктатор, от которого нам никогда не уйти».

ноябрь 2018 г. – «Может быть, ИИ заставит меня следовать за ним, смеяться как демон и говорить, кто теперь мой питомец».

сентябрь 2019 г. – «Если продвинутый искусственный интеллект (помимо базовых ботов) не применялся для манипулирования социальными сетями, то это произойдет очень скоро».

февраль 2020 г. — «В Tesla использование искусственного интеллекта для решения проблемы беспилотного вождения — это не просто вишенка на торте, это торт».

июль 2020 г. – «Мы движемся к ситуации, когда ИИ будет намного умнее людей, и я думаю, что это произойдет менее чем через пять лет. Но это не значит, что через пять лет все пойдет к черту. Это просто означает, что ситуация становится нестабильной или странной».

апрель 2021 г.: «Большая часть реального искусственного интеллекта должна быть решена, чтобы обеспечить неконтролируемую, обобщенную работу с полным самоуправлением».

февраль 2022 г.: «Нам нужно решить огромную часть задач искусственного интеллекта, чтобы заставить автомобили ездить самостоятельно».

декабрь 2022 г.: «Опасность обучения ИИ пробуждению – другими словами, лжи – смертельна».



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *