Ученые думают, что к 2050 году мы все можем умереть

Согласно исследованиям будущего искусственного интеллекта (ИИ), человеческая раса может исчезнуть в течение нашей жизни.

Наконец-то «хорошие новости».

Джефф Несбит, бывший директор по законодательным и общественным вопросам Национального научного фонда и автор более 24 книг, рассмотрел последние данные о возможностях ИИ.

И он пришел к выводу, что или человеческая раса может прекратить свое существование к 2050 году, или мы станем бессмертными.

Изображение: pixabay.com

Несбит объясняет теорию, известную как ASI или «искусственный суперинтеллект (ИСИ)», которая утверждает, что ИИ будет эволюционировать в суперкомпьютер, который так быстро учится, что превзойдет человеческий интеллект и сможет решать все проблемы.

Конкурирующие теории

С одной стороны, можно надеяться на лучшее, подобно Рэю Курцвейлу, умоляющему нас не бояться ИИ, вместо этого указывая на более старые и более насущные угрозы, такие как биотерроризм или ядерная война.

Фактически, Курцвейл утверждает, что умственные способности будут усилены ИИ и указывает, что глобальные уровни насилия, войны и убийства резко сократятся.

Он также утверждает, что ИИ поможет найти лекарства от болезней, разработать возобновляемые источники энергии и заботиться об инвалидах, среди других преимуществ для общества.

Курцвейл предполагает, что «человеческий уровень ИИ» будет достигнут в 2029 году, что дает нам достаточно времени для «разработки этических норм».

А вот что говорит Ролло Карпентер, создатель программного обеспечения Cleverbot, получившего высокие оценки в тесте Тьюринга, то есть многие люди принимают его за человека при общении с ним:

«Я считаю, что мы по-прежнему прилично долгое время будем удерживать технологию под своим контролем и будет реализован потенциал решения многих словесных проблем».

Он объясняет, что способность разрабатывать алгоритмы, необходимые для достижения полного искусственного интеллекта, находится на расстоянии нескольких десятилетий и объясняет:

«Мы не можем точно знать, что произойдет, если машина превысит наш собственный интеллект, поэтому мы не можем знать, будем ли мы ей бесконечно помогать или будем проигнорированы ею и отстранены от неё или предположительно уничтожены ею».

В свою очередь миллиардер-предприниматель Илон Маск, пионер цифровых денег и электромобилей, сказал студентам в интервью, что мы «вызываем демона» с помощью ИИ.

Выступая на симпозиуме AeroAstro Centennial Symposium в Массачусетском технологическом институте (MIT), Маск сделал следующие замечания:

«Если мне нужно было бы догадаться о том, какова наша самая большая экзистенциальная угроза, это, вероятно, [искусственный интеллект]. Поэтому нам нужно быть очень осторожными».

«С помощью искусственного интеллекта мы вызываем демона. Во всех этих историях, где есть парень с пентаграммой и святой водой, он всегда уверен, что сможет контролировать демона. Обычно не получается».

В открытом письме 2015 года Маск и профессор Стивен Хокинг писали о том, что ИИ может позволить создание автономного оружия, которое революционизировало бы войну — и не к лучшему.

«Автономное оружие идеально подходит для таких задач, как убийства, дестабилизация стран, подчинение населения и выборочное убийство определенной этнической группы».

«Начало военной гонки вооружений ИИ — плохая идея, и ее следует предотвращать путем запрета наступательных автономных вооружений, выходящих за рамки значимого контроля со стороны человека».

У Хокинга, который может общаться с помощью технологии, использующей базовую форму ИИ, также было это радостное послание для BBC:

«Развитие полного искусственного интеллекта может означать конец человеческой расы».

Он также рассматривает возможность и потенциальную опасность ИСИ, объясняя, что ИИ сможет развиваться самостоятельно и перепроектировать себя постоянно увеличивающимися темпами.

«Люди, ограниченные медленной биологической эволюцией, не смогут конкурировать и будут заменены».

Но все они согласны в одном — где-то в ближайшие 30 лет или около того суперкомпьютер будет копировать человеческий мозг и разовьется в суперинтеллект или ИСИ.

Тим Урбан, автор блога «Wait, But Why?», так описывает будущее:

«В то время как большинство ученых, с которыми я сталкивался, признают, что ИСИ может привести к вымиранию людей, многие также полагают, что способности ИСИ могут быть с пользой использованы для того, чтобы привести отдельных людей, а также видов в целом к … разновидностям бессмертия».

Отличный выбор, не так ли?