Восстание роботов-убийц: эксперты показывают, насколько мы близки к захвату власти в стиле Терминатора

Восстание роботов-убийц: эксперты показывают, насколько мы близки к захвату власти в стиле Терминатора


Прошло ровно 40 лет с тех пор, как «Терминатор» вышел на большой экран, шокировав кинозрителей устрашающим изображением постапокалиптического будущего.

В эпическом научно-фантастическом блокбастере Джеймса Кэмерона миллиарды людей погибают, когда машины, обладающие самосознанием, развязывают глобальную ядерную войну примерно в начале XXI века.

Арнольд Шварценеггер играет одноименного робота-убийцу, отправленного в прошлое с 2029 по 1984 год, чтобы устранить угрозу человеческого сопротивления.

Как известно, Терминатор, который выглядит как взрослый человек, «абсолютно не остановится… пока ты не умрешь», как выразился один персонаж.

Хотя это звучит как чисто научная фантастика, академические и промышленные деятели, включая Илона Маска, опасаются, что человечество действительно будет уничтожено ИИ.

Но когда именно это произойдет? И станет ли гибель человечества отражением апокалипсиса, изображенного в голливудском фильме?

MailOnline поговорил с экспертами, чтобы выяснить, насколько мы близки к захвату власти в стиле Терминатора.

Восстание роботов-убийц: эксперты показывают, насколько мы близки к захвату власти в стиле Терминатора

В эпическом научно-фантастическом блокбастере Джеймса Кэмерона, вышедшем в кинотеатры США в пятницу, 26 октября 1984 года, Арнольд Шварценеггер играет одноименного робота-убийцу.

В классическом фильме цель Терминатора проста – убить Сару Коннор, жительницу Лос-Анджелеса, которая родит Джона, который возглавит восстание против машин.

Терминатор оснащен оружием и непробиваемым металлическим экзоскелетом, а также развитым зрением и сверхчеловеческими конечностями, которые могут с легкостью раздавить или задушить нас.

Натали Крамп, партнер компании по обработке данных JMAN Group, сказала, что реальный эквивалент Терминатора в реальном мире возможен, но, к счастью, это, скорее всего, не произойдет при нашей жизни.

«В будущем возможно все, но мы еще далеки от того, чтобы робототехника достигла уровня, когда машины, подобные Терминатору, смогут свергнуть человечество», — сказала она MailOnline.

По мнению эксперта, роботы гуманоидного типа, такие как Терминатор, сейчас не являются наиболее вероятным путем развития робототехники и искусственного интеллекта.

Скорее, более актуальной угрозой в отрасли являются машины, которые уже широко используются, такие как дроны и автономные автомобили.

«На пути к тому, чтобы такой робот эффективно работал, существует очень много препятствий – не в последнюю очередь то, как вы его приводите в действие и координируете движения», – сказал Крэмп MailOnline.

«Основная проблема заключается в том, что на самом деле это не самая эффективная форма, которую робот может использовать, чтобы быть полезным.

Терминатор оснащен оружием и непробиваемым металлическим экзоскелетом, а также массивными сверхчеловеческими конечностями, которые могут с легкостью раздавить или задушить нас.

Терминатор оснащен оружием и непробиваемым металлическим экзоскелетом, а также массивными сверхчеловеческими конечностями, которые могут с легкостью раздавить или задушить нас.

«Если мы размышляем о том, какие типы ИИ-устройств могут «выйти из-под контроля» и причинить нам вред, то это, скорее всего, будут предметы повседневного обихода и инфраструктура – ​​беспилотный автомобиль, который работает со сбоями, или вышедшая из строя энергосистема».

Марк Ли, профессор искусственного интеллекта в Университете Бирмингема, сказал, что апокалипсис в стиле Терминатора произойдет, когда «любое правительство окажется достаточно безумным, чтобы передать контроль над национальной обороной ИИ».

«К счастью, я не думаю, что найдется нация, достаточно сумасшедшая, чтобы подумать об этом», — сказал он MailOnline.

Профессор Ли согласился с тем, что существуют различные виды ИИ, вызывающие более насущную озабоченность, в том числе лежащие в их основе мощные алгоритмы.

«Непосредственная опасность ИИ для большинства людей заключается в его влиянии на общество по мере того, как мы переходим к системам ИИ, которые принимают решения по таким обыденным вещам, как заявки на работу или ипотеку», — сказал он MailOnline.

«Однако значительные усилия прилагаются и в военных приложениях, таких как управляемые ракетные системы с искусственным интеллектом или дроны.

«Здесь нам нужно быть осторожными, но беспокойство вызывает то, что даже если западный мир согласится с этическими рамками, другие страны могут этого не сделать».

Цель Терминатора проста — убить Сару Коннор, жительницу Лос-Анджелеса, которая родит Джона, который возглавит восстание против машин.

Цель Терминатора проста — убить Сару Коннор, жительницу Лос-Анджелеса, которая родит Джона, который возглавит восстание против машин.

Доктор Том Уоттс, исследователь американской внешней политики и международной безопасности в Лондонском университете Ройал Холлоуэй, заявил, что «крайне важно», чтобы люди-операторы продолжали осуществлять контроль над роботами и искусственным интеллектом.

«Все международное сообщество, от таких сверхдержав, как Китай и США, до небольших стран, должно найти политическую волю к сотрудничеству и справиться с этическими и юридическими проблемами, возникающими в результате военного применения ИИ в это время геополитических потрясений», он пишет в новой статье для The Conversation.

«От того, как страны справятся с этими проблемами, будет зависеть, сможем ли мы избежать антиутопического будущего, которое так ярко представлено в «Терминаторе», даже если в ближайшее время мы не увидим киборгов, путешествующих во времени».

В 1991 году был выпущен чрезвычайно успешный сиквел «Терминатор 2: Судный день», изображающий «дружественную» перепрограммированную версию одноименного бота.

Гуманоидный антагонист фильма по имени Т-1000 может бежать со скоростью автомобиля и в одной запоминающейся сцене сжижается, проходя сквозь металлические решетки.

К сожалению, исследователи в Гонконге работают над тем, чтобы воплотить это в жизнь, разработав небольшой прототип, который может переключаться между жидкой и твердой стадиями.

В целом, создание ходячего говорящего робота со смертоносными способностями будет более сложной задачей, чем разработка системы программного обеспечения, которая будет выполнять функции его мозга.

С момента выхода «Терминатор» был признан одним из величайших научно-фантастических фильмов всех времен.

В прокате он заработал более чем в 12 раз больше своего скромного бюджета в 6,4 миллиона долларов США, что составляет 4,9 миллиона фунтов стерлингов по сегодняшнему обменному курсу.

Доктор Уоттс считает, что величайшим наследием фильма стало «искажение того, как мы коллективно думаем и говорим об искусственном интеллекте», который сегодня представляет «экзистенциальную опасность, которая часто доминирует в общественных дискуссиях».

Илон Маск входит в число технологических лидеров, которые помогли сосредоточить внимание на предполагаемом экзистенциальном риске ИИ для человечества, часто ссылаясь на фильм.

Хронология комментариев Илона Маска об искусственном интеллекте

Маск уже давно и очень громко осуждает технологии искусственного интеллекта и меры предосторожности, которые следует принимать людям.

Маск уже давно и очень громко осуждает технологии искусственного интеллекта и меры предосторожности, которые следует принимать людям.

Илон Маск — одно из самых выдающихся имен и лиц в сфере разработки технологий.

Предприниматель-миллиардер возглавляет SpaceX, Tesla и компанию Boring.

Но хотя он находится на переднем крае создания технологий искусственного интеллекта, он также остро осознает их опасности.

Вот подробный график всех предчувствий, мыслей и предупреждений Маска об ИИ на данный момент.

август 2014 г. — «Нам нужно быть очень осторожными с ИИ. Потенциально более опасно, чем ядерное оружие».

Октябрь 2014 г. – «Я думаю, нам следует быть очень осторожными в отношении искусственного интеллекта. Если бы мне пришлось угадывать, в чем заключается наша самая большая экзистенциальная угроза, то, вероятно, это было бы так. Поэтому нам нужно быть очень осторожными с искусственным интеллектом».

Октябрь 2014 г. – «С помощью искусственного интеллекта мы вызываем демона».

июнь 2016 г. – «Хорошая ситуация со сверхразумным ИИ заключается в том, что мы будем настолько ниже по интеллекту, что будем подобны домашнему животному или домашней кошке».

июль 2017 г. — «Я думаю, что ИИ — это нечто рискованное на уровне цивилизации, а не только на уровне индивидуального риска, и именно поэтому он действительно требует большого количества исследований в области безопасности».

июль 2017 г. – «Я знаком с самым передовым искусственным интеллектом, и я думаю, что люди должны действительно беспокоиться об этом».

июль 2017 г. – «Я продолжаю бить тревогу, но пока люди не увидят роботов, идущих по улице и убивающих людей, они не знают, как реагировать, потому что это кажется таким неземным».

август 2017 г. — «Если вас не беспокоит безопасность ИИ, вам следует беспокоиться. Гораздо больший риск, чем в Северной Корее».

ноябрь 2017 г. – «Возможно, вероятность успеха составляет от пяти до десяти процентов». [of making AI safe].’

март 2018 г. – «ИИ гораздо опаснее ядерного оружия. Так почему же у нас нет регулирующего надзора?»

апрель 2018 г. – ‘[AI is] очень важная тема. Это повлияет на нашу жизнь так, как мы сейчас даже не можем себе представить».

апрель 2018 г. – ‘[We could create] бессмертный диктатор, от которого нам никогда не уйти».

ноябрь 2018 г. – «Может быть, ИИ заставит меня следовать за ним, смеяться как демон и говорить, кто теперь мой питомец».

сентябрь 2019 г. – «Если продвинутый искусственный интеллект (помимо базовых ботов) не применялся для манипулирования социальными сетями, то это произойдет очень скоро».

февраль 2020 г. — «В Tesla использование искусственного интеллекта для решения проблемы беспилотного вождения — это не просто вишенка на торте, это торт».

июль 2020 г. – «Мы движемся к ситуации, когда ИИ будет намного умнее людей, и я думаю, что это произойдет менее чем через пять лет. Но это не значит, что через пять лет все пойдет к черту. Это просто означает, что ситуация становится нестабильной или странной».

апрель 2021 г.: «Большая часть реального искусственного интеллекта должна быть решена, чтобы обеспечить неконтролируемую, обобщенную работу с полным самоуправлением».

февраль 2022 г.: «Нам нужно решить огромную часть задач искусственного интеллекта, чтобы заставить автомобили ездить самостоятельно».

декабрь 2022 г.: «Опасность обучения ИИ пробуждению – другими словами, лжи – смертельна».



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

ブラウンズQBデプスチャート ジョー・フラッコ シェドゥール・サンダース ブラウンズ ブラウンズQB クリーブランド・ブラウンズQB クリーブランド・ブラウンズ デプスチャート ブラウンズクォーターバック ブラウンズクォーターバック 2025 クリーブランド・ブラウンズ ドラフト クリーブランド・ブラウンズ クォーターバック ブラウンズ 指名 サンダース ブラウンズ クリーブランド・ブラウンズQB ブラウンズクォーターバック 不受欢迎的人 西姆拉协议 什么是印度河水条约 信德河 阿塔里边界 印度河 印度河流域条约 印度巴基斯坦 什么是西姆拉协议 印巴新闻 西姆拉协议 南盟签证含义 南盟签证含义 南盟签证 巴基斯坦总理 南盟 1972年西姆拉协议 印度河条约 印度河水条约 西姆拉条约 阿塔里瓦加边界 西姆拉协议 西姆拉协议 巴基斯坦总理 内阁会议 瓦加边界 1972年西姆拉协议 维克拉姆·米斯里 1972年西姆拉协议 信德河协议 印度河水 印度河河谷条约 巴基斯坦高级专员公署 南盟签证含义 瓦加阿塔里边界 阿塔里边界 什么是不受欢迎的人 印度河水条约upsc 印度河 印度河谷 什么是sves签证 印度暂停印度河水条约 乌里袭击事件 什么是印度河谷条约 内阁安全委员会 印度河水条约新闻 伊斯兰国与俄罗斯 积分表 1960年印度河水条约 印度斯坦时报 不受欢迎 伊斯兰堡 世界新闻 信德河水条约 国际新闻 印度对巴基斯坦的行动 印度外交部长 巴基斯坦印度河水条约 巴基斯坦对印度的反应 外交部 巴基斯坦新闻直播 2025年NEET城市通知单 neet.nta.nic.in 2025 准考证 2025年NEET城市通知单 不。不。在 不不 没什么问题 尼特乌格 2025年无薪 neet.nta.nic 2025 年 没有官方网站 城市通知单 2025