Спецпроект

7 технологій, з якими слід бути обережними


Уявити сучасний світ без технологій неможливо. У майбутньому вони розвинуться ще більше, і важко навіть здогадатися, що чекає нас через кілька десятків років. Тим не менше, як будь-який винахід, технології можна використовувати або з корисною, або із шкідливою ціллю. Не всі фантастичні можливості, на жаль, гарантують тільки свободу і користь для людства. Деякі з них турбують і навіть лякають нас.

Нанотехнології

Їх можна використовувати для очищення навколишнього середовища, зміни біології людини, усунення постійного дефіциту… А ще можна швидко (і майже безболісно) знищити планету. Патрік Лін, директор Ethics+Emerging Sciences Group, зазначає:

Ідея, що технології нейтральні, — це міф, який потрібно розвіяти. Інженер може наділити етикою створіння, навіть якщо предмет сам по собі не має ніякого морального агента. Ті ж газові камери — приклад технологій, які були створені заради злого умислу і не мають позитивного застосування. Якщо ймовірність застосування технології заради зла вища, ніж заради добра, можливо, таку технології не варто розробляти.

Правлінню людства на землі швидко можуть покласти кінець воєнні нанотехнології молекулярної збірки. Загроза постає через два потужні явища: неконтрольоване самовиробництво й експоненціальний ріст. Наприклад, недержавний агент може розробити мікроскопічні машини, які поглинуть важливі ресурси планети, при цьому залишаючи побічні продукти на своєму шляху. Є кілька можливих варіантів згубних нанотехнологій: сірий пил (закриє нас від сонячного світла), сірий планктон (буде поїдати багату на вуглець екологію), сірий лишайник (знищить всю наземну геологію), «вбивці біомаси» (атакують різноманітні організми). Для того щоб захиститися від загрози, людству доведеться розробляти «щити», які зможуть вивести наноботів із строю.

Розумні машини

Колись машини, безперечно, будуть наділені штучною свідомістю. Науковці активно працюють над розробкою таких технологій, але рідко враховують етичні питання — наприклад, що небажано створювати програмне забезпечення, яке може відчувати страждання. Декілька неправильно закодованих генів у людини можуть викликати аутизм, синдром Дауна чи епілепсію. А як тоді жити з неправильно запрограмованою формою свідомості? Наприклад, розробники захочуть відтворити розум людини в машинах за рахунок імітації біологічної структуру мозку. Перші результати як мінімум викличуть неприємний і обрізаний стан суб’єктивного досвіду.

Штучний інтелект

Надрозумні технології, які перевершуватимуть людей, зможуть змінювати структуру свого штучного мозку, якщо цього вимагатиме програмне «оновлення». Втручання в наше життя систем, які швидші і розумніші за нас, відсуне людство на задній план. Штучний інтелект зможе вирішувати все за нас і не залишить жодного шансу на альтернативу.

Подорожі в часі

Так, звучить це зовсім не страшно, а навіть заманливо. Тим не менше подорожування через часовий простір може бути небезпечним, включно з неприємними парадоксами. Якщо створюються абсолютно нові й окремі часові лінії, технологічний і культурний обмін між різними цивілізаціями навряд чи закінчиться чимось хорошим.

Читання думок

Перспектива того, що в майбутньому з’являться машини, які зможуть читати думки і спогади людей навіть на відстані, викликає занепокоєння. І хоча це стане можливим лише після того, як людський мозок стане більш інтегрованим з мережею й іншими каналами зв’язку, слід знати про можливі наслідки вже зараз. Наприклад, у Нідерландах вчені використали дані сканування мозку та комп’ютерні алгоритми, щоб визначити, на які букви дивиться людина. Цей прорив продемонстрував можливість реконструкції людських думок з безпрецедентним рівнем деталізації, включно з тим, що ми бачимо, пам’ятаємо, думаємо. Якщо таке знаряддя потрапить до рук поліцейської держави, скажімо, то життя стане більше схожим на антиутопічне, де карають навіть за злочини, скоєні подумки.

Бойові віруси

Ще в 2005 році вчені відзначили, що публікація геномів смертельних вірусів для всього світу може стати смертельним рецептом. Завжди знайдуться фанатики, які скористаються інформацією й або реконструюють віруси з нуля, або модифікують вже існуючі, зробивши їх ще небезпечнішими. Наприклад, модифікований пташиний грип міг би знищити половину земного населення. До речі, китайські вчені спробували схрестити пташиний і свинячий грип, щоб розробити можливі міри контратаки перед спалахом справжньої епідемії. Чи існує гарантія, що вірус не вислизне з лабораторії?

Віртуальні тюрми і катування

Етичний спеціаліст Ребекка Роач займається розслідуванням різних потенційних сценаріїв, як от, наприклад, ув’язнення людей на сотні тисяч років. Вона погоджується, що безсмертя має свої переваги, але разом з ним може збільшитись і міра покарання. Очевидно, державі буде дорого коштувати утримання таких злочинців, зате вони можуть внести вагомий вклад у вигляді довгоживучої робочої сили. А якщо, наприклад, завантажити в свідомість злочинця «програму на прискорення», він зможе відпрацювати покарання на 1000 років за вісім годин. Таке концентроване покарання потягне за собою і кількагодинну реабілітацію.

ТАКЖЕ ЧИТАЙТЕ 6 мифов о технологиях, в которые мы всё еще верим

Подписывайтесь на нас в Facebook!

Написать комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Извините, для комментирования необходимо войти.