вівторок, 19 липня 2016 р.

Технології майбутнього – чого боятись людству


Чим глибше ми занурюємося в 21 перше століття, тим виразніше проступають фантастичні можливості, які перед нами відкриваються. І тим виразніше ми переживаємо похмурі почуття, коли про них думаємо. Пропонуємо вам десять лякаючих технологій, яких краще б ніколи не існувало. Коли ви з ними ознайомитеся, стане очевидно, що багатьом з цих технологій могли б знайти хороше застосування. І архіважливо вчасно провести розділову лінію між технологією як такою і тим, як її можна використовувати.
Взяти, наприклад, нанотехнології. Розробляючи й використовуючи їх, можна покласти край постійному дефіциту, очистити довкілля, переробити біологію людини. Але також їх можна використовувати для дуже швидкого знищення нашої планети. Отже коли настане час розробляти і використовувати ці футуристичні технології, нам доведеться підійти до цього з усією відповідальністю. Можливо, ми прийдемо до думки, що окрема серія технологічних розробок і зв'язані з нею ризики не варті переваг. Наприклад, штучний надінтелект.
Деякі технології об'єктивно небезпечні. Ось що говорить із цього приводу Патрік Лин, директор Ethics + Emerging Sciences Group з Каліфорнійського політехнічного державного університету:
"Ідея того, що технології нейтральні або не мають відношення до моральності, це міф, який треба розвіяти. Дизайнер може наділити етикою сотворіння, навіть якщо воно не має ніякого морального агента само по собі. Ця функція може бути надто непомітною в більшості випадків, але деякі технології були народжені від лукавого й не мають позитивного застосування, наприклад, газові камери. Більше того, хоч технології можуть бути спочатку хорошими або поганими, будь-хто погодиться з тим, що у більшості технологій є як хороші, так і погані варіанти застосувань. Якщо вірогідність застосування технології во ім'я зла вища, ніж во ім'я добра, можливо, таку технологію не варто розробляти".

Військові нанотехнології

Навряд чи ще щось може покласти край нашому пануванню на Землі швидше, ніж військові - або сильно зіпсовані - нанотехнології молекулярного рівня.
Ця загроза виникає з двох надзвичайно потужних джерел: неконтрольоване самовідтворення і експоненціальне зростання. Нігілістичний уряд, недержавний агент або приватна особа може розробити мікроскопічні машини, які поглинуть критично важливі ресурси нашої планети із швидкістю лісової пожежі (дуже швидко), при цьому плодячись у величезній кількості і залишаючи безкорисні, а то й відверто шкідливі побічні продукти на своєму шляху - футурологи називають цей сценарій "сірим слизом".
Теоретик нанотехнологій Роберт Фрейтас запропонував декілька можливих варіантів появи згубних для планети нанотехнологій, включаючи сірий пил, сірий планктон, сірі лишайники і так звані вбивці біомаси. Сірий пил закриє нас від сонячного світла; сірий планктон складатиметься з вирощених на дні океану реплікаторів, які поїдять усю наземну багату вуглецем екологію; сірі лишайники знищать наземну геологію, а вбивці біомаси атакують різноманітні організми.
На думку Фрейтаса, найгірший сценарій "глобальної екофагії" займе близько 20 місяців, чого буде більш ніж достатньо, щоб сконструювати ефективний захист. Під захистом Фрейтас має на увазі контрзаходи у вигляді нанотехнологій-самореплікантів або систему, яка виводить з ладу внутрішній механізм наноботів. З іншого боку, ми могли б розвернути "активні щити" заздалегідь, але більшість експертів в області нанотехнологій сходяться в тому, що це буде намарно. Отже, доведеться розробляти і підтримувати мораторій на створення бойових нанотехнологій.

Розумні машини

Одного дня ми подаруємо машинам штучний інтелект, це вже приймається як само собою зрозуміле. Але перш ніж рухатися вперед до такого майбутнього, нам треба дуже серйозно подумати. Можливо, буде занадто жорстоко будувати функціональний мозок усередині комп'ютера ج– і це стосується як тварин, так і людських емуляцій.
Ще в 2003 році філософ Томас Метцингер стверджував, що було б жахливе неетично розробляти програмне забезпечення, яке може страждати.
"Що б ви сказали, якби хто-небудь прийшов і сказав: "Ми хочемо генетично змінювати розумово відсталих людських немовлят! З деяких угодних науковому прогресу причин, нам потрібні немовлята з певними когнітивними і емоційними відхиленнями, щоб вивчати їх післяродовий психологічний розвиток нам терміново потрібні засоби для цього важливого і новаторського типу досліджень!" Ви б визнали, що це не лише абсурдна і сумнівна, але і небезпечна ідея. Її не пропустила б жодна комісія з етики у демократичному світі. Проте нинішні комітети з етики не бачать, що перші машини з мінімальною свідомістю можуть бути такими ж розумово відсталими немовлятами. Вони можуть страждати від усіх видів функціонального і репрезентативного дефіциту. І вони суб'єктивно відчуватимуть цей дефіцит. Більше того, у них не буде ніякого захисту і ніяких представників в комітетах з етики".
Футуролог Луї Хельм погоджується з ним: "Комп'ютери особливо хороші тим, що можуть підрахувати суму мільйонів колонок в таблиці і не втомлютися, не скучати. Оскільки ми плануємо використовувати штучний інтелект як заміну розумової праці, думаю, було б аморально створювати розумні програми. Ув'язнити свідому істоту в машині і змусити її працювати на вас це практично рабство. Крім того, свідомість штука крихка. Декілька неправильно закодованих генів у людини можуть викликати синдром Дауна, шизофренію, аутизм або епілепсію. Яке це: мати неправильно запрограмовану форму свідомості? Наприклад, декілька добре спонсорованих розробників штучного інтелекту захочуть відтворити розум людини в машинах за рахунок імітації біологічної структури мозку людини. Я чекаю і навіть сподіваюся, що ці перші спроби моделювання будуть надто грубими, щоб дійсно бути реалізованими. Але у разі "успіху", перші результати напевно породять дивний, неприємний і обрізаний стан суб'єктивного досвіду. Як програміст, я проти самоусвідомленого штучного інтелекту. Не тому що це буде не круто. А тому що я морально проти рабства, тортур і поганого кодування".

Штучний надінтелект

Як заявив Стівен Хокинг на початку цього року, штучний інтелект може бути нашою найгіршою помилкою в історії. Багато разів ми обговорювали те, що поява надлюдського інтелекту може стати катастрофою. Поява систем, які набагато швидші і розумніші за нас, відкине нас на задній план. Ми опинимося у владі того, що забажає штучний надінтелект і незрозуміло, чи вдасться нам створити дружній штучний інтелект. Нам доведеться розв'язати цю проблему якнайшвидше, інакше розвиток штучного надінтелекту може покласти край людській расі.

Подорожі в часі

Не те щоб я сильно вірив в можливість подорожей в часі (хіба усі ми не подорожуємо в часі прямо зараз?), але скидати її з рахунків не варто. Більше того, нам треба триматися від неї чимподалі.
Подорожі в часі можуть бути з біса небезпечними. Будь-який фільм про заплутані тимчасові лінії розповість вам про потенційні небезпеки, включаючи неприємні парадокси. І навіть якщо деяка форма квантових подорожей в часі стане можлива коли створюються абсолютно нові і роздільні тимчасові лінії культурний і технологічний обмін між різними цивілізаціями навряд чи може закінчитися добре.

Пристрої для читання думок

Перспектива існування машин, які можуть читати думки і спогади людей на відстані і не тільки, з їх згоди і без, викликає побоювання. Але таке навряд чи буде можливе, поки людський мозок не стане тісніше інтегрований з мережею і іншими каналами зв'язку.
Минулого року, наприклад, учені з Нідерландів використовували сканування мозку і комп'ютерні алгоритми, щоб визначити, на які букви дивиться людина. Цей прорив показав можливість реконструкції людських думок з безпрецедентним рівнем деталізації третьою особою включаючи те, що ми бачимо, про що думаємо, що пам'ятаємо. Якщо такі пристрої потраплять в лапи тоталітарного режиму або поліцейської держави, життя стане неможливим і нестерпним. Світ буде схожий на орвеллівський, в якому каратимуть навіть за злочини, здійснені в думках.

Пристрої для злому мозку

Існує можливість, що нашу свідомість можна буде змінити, разом з нашими знаннями і спогадами. Як тільки ми отримаємо чіпи в мозок і усі бар'єри зникнуть, наша свідомість буде відкрита для усього Інтернету і усіх його зол.
Перший крок у цьому напрямку ми вже зробили. Не так давно міжнародна група неврологів почала експеримент, який дозволить учасникам здійснювати зв'язок від мозку до мозку через інтернет. Класно, подумаєте ви, але така технічна телепатія відкриває скриньку Пандори. Зловмисник може дістати можливість до модифікації спогадів і намірів жертви. А що буде, якщо таку можливість дістануть цілі організації або параноїдальні уряди?

Автономні роботи для знищення людей

Потенціал автономних машин, що вбивають людей, лякає усіх і, напевно, це перший пункт на порядку денному, з яким треба починати боротися.
Ось що говорить футуролог Майкл Латорра :
"У нас поки що немає машин, які мають інтелект, близький до рівня людини. Але для створення автономних роботів з летальними здібностями інтелект людського рівня не вимагається. Розробка низки роботизованих військових апаратів вже йде повним ходом. Роботи-танки, літаки, кораблі, підводні човни, роботи-солдати усе це можливо вже сьогодні. На відміну від безпілотних дронов з дистанційним управлінням, військові роботи можуть визначати цілі і знищити їх без людської підказки і наказу стріляти. Небезпека такої технології має бути очевидна, але не повинна зводитися тільки до загрози "дружнього вогню", коли роботи випадково вбивають людей на своїй стороні конфлікту або навіть безневинних громадян. Куди більша небезпека ховається в міжнародній гонці озброєнь, яка може розвернутися, якщо яка-небудь країна почне будувати автономних бойових роботів. Після декількох циклів поліпшень, гонка створення ще потужніших військових роботів може перейти поріг, коли новітнє покоління автономних роботів зможе побороти будь-яку військову систему під управлінням людей. І тоді, випадково або навмисно, людство може поставити себе в жахливе положення, виявиться роздавленими жертвами бойових роботів".

Бойові патогени

Це ще одна тема, яка хвилює багатьох. У 2005 році Рэй Курцвейл і Біл Джой відмічали, що публікація геномів смертельних вірусів для всього світу буде убивчим рецептом. Завжди знайдеться ідіот або купка фанатиків, які візьмуть цю інформацію на озброєння і або реконструюють вірус з нуля, або модифікують існуючі віруси, зробивши їх ще небезпечнішими, а потім випустить у світ. Було підраховано, наприклад, що модифікований пташиний грип міг би знищити половину земного населення. А учені з Китаю і зовсім поєднали пташиний і свинячий грип, створивши справжнього мутанта. Метою їх, звичайно, було зрозуміти, упізнати ворога і розробити можливі контрзаходи, перш ніж спалахне справжня пандемія. Але завжди є небезпека, що вірус втече з лабораторії і посіє хаос серед людей. Чи що його візьмуть на озброєння і спустять з ланцюга.
Прийшов час замислитися про цю похмуру можливість до того, як станеться щось жахливе.

Віртуальні в'язниці і тортури

Якими будуть тортури і в'язниці, якщо люди зможуть жити протягом сотень або тисяч років? Що буде з ув'язненими, якщо їх розум завантажити у віртуальний світ? Этик Ребека Роач займається дослідженням цих жахливих сценаріїв.
"Переваги безсмертя очевидні але разом з ним може збільшитися міра покарання. Якщо тридцять років ув'язнення визнають занадто м'яким покаранням, злочинцеві можуть дати і довічне з урахуванням збільшеної тривалості життя. Довічне ув'язнення перетвориться на декілька сотень років, наприклад. Правда, суспільству може бути дорожче утримувати таких злочинців. Але якщо ж збільшення тривалості життя стане доступне повсюдно, довгожителі поза сумнівом внесуть свій вклад у вигляді довгоживучої робочої сили.
Завантаження свідомості злочинця і прискорення її в мільйон разів дозволить "відпрацювати" злочин з покаранням в 1000 років за декілька годин. Це буде дешевше, ніж утримувати злочинця на гроші платників податків ту ж 1000 років. Услід за цим концентрованим покаранням може послідувати реабілітація, також протягом декількох годин".

Створення пекла

Цей варіант схожий на попередній. Деякі футурологи передбачають створення раю - використання передових технологій, включаючи завантаження свідомості і віртуальну реальність, які перетворять Землю на парадиз. Але якщо ви можете створити рай, ви можете створити і пекло. Ця перспектива особливо лякає, якщо врахувати невизначену тривалість життя, а також практично безмежні можливості психологічного і фізичного покарання. Складно уявити, що хтось в принципі захоче розробляти таку річ. Але цим кимось може бути штучний надінтелект. Ви ж пам'ятаєте проблему Василіска Роко?

Немає коментарів:

Дописати коментар