fbpx

Сооснователь Skype Яан Таллинн назвал три главные угрозы для человечества

Несмотря на глобальное изменение климата и пандемию, главные угрозы существованию человечества до конца 2100 года — это искусственный интеллект, синтетическая биология и так называемые «неизвестные неизвестные». Об этом CNBC сказал cооснователь Skype Яан Таллинн.

ООН назвала климатический кризис «определяющей проблемой нашего времени», а его последствия «глобальными и беспрецедентными» по масштабам. Организация также предупредила, что есть тревожные свидетельства того, что «переломные моменты, ведущие к необратимым изменениям в основных экосистемах планеты, возможно, уже пройдены». 

Несмотря на это, Яан Таллинн, который создал файлообменную службу Kazaa и сервис видеосвязи Skype, не считает изменение климата основным экзистенциальным риском. 

Есть один шанс из шести, что человечество погибнет в этом столетии, сказал Яан Таллинн, ссылаясь на книгу оксфордского профессора Тоби Орда «Обрыв». В ней также говорится, что вероятность гибели людей, вызванной изменением климата, составляет менее 1%.

По словам Таллинна, главными угрозами в ближайшей перспективе являются искусственный интеллект, синтетическая биология и так называемые «неизвестные неизвестные». 

Синтетическая биология — это проектирование и конструирование биологических систем с заданными свойствами и функциями, в том числе тех, которые не имеют аналогов в природе. «Неизвестные неизвестные» — это «вещи, которых мы, возможно, не можем представить прямо сейчас», пояснил Таллинн.

Из трех угроз, которые назвал Таллиннн, в центре его внимания находится ИИ. Он тратит миллионы долларов, чтобы обеспечить безопасное развитие технологии, пишет CNBC. Предприниматель инвестировал в стартап по разработке ИИ Deep­Mind, чтобы следить за работой команды, и в исследования безопасности ИИ в Оксфордском и Кембриджском университетах.

По словам Таллинна, сказать, насколько продвинутым будет ИИ в ближайшие 10, 20 или 100 лет, в принципе невозможно. Попытки предсказать будущее ИИ осложняются тем, что появляются ИИ, способные создавать собственные уникальные ИИ без участия людей. 

«Если ИИ окажется очень хорош в создании других ИИ, то оправданно беспокоиться о том, что произойдет дальше», — сказал предприниматель.

Таллинн добавил, что есть два основных сценария гибели человечества, которые рассматривают исследователи безопасности ИИ. Первый — это несчастный случай в лаборатории, когда исследовательская группа оставляет ИИ, чтобы тренировать его на компьютерных серверах вечером, а «утром мира больше нет». 

Во втором случае исследовательская группа создает прототипную технологию, которая затем применяется в различных областях, что «в конечном итоге приводит к плачевным последствиям».

На вопрос о том, беспокоит ли его идея сверхразума (гипотетическая точка, в которой машины достигают человеческого уровня интеллекта, а затем быстро превосходят его) Таллинн ответил: «Тех, кто говорит, что это произойдет завтра или не произойдет в ближайшие 50 лет, я бы назвал слишком самоуверенными».