Menu

Кембриджські вчені починають вивчення потенційної загрози, яку несе всьому людству розвиток штучного інтелекту

Кембриджские ученые начинают изучение потенциальной угрозы, которую несет всему человечеству развитие искусственного интеллекта


Зовсім недавно при Кембриджському університеті був сформований новий Центр вивчення існуючих загроз (Centre for the Study of Existential Risk, CSER). Вчені, філософи і інженери, складові команду цього центру, будуть займатися вивченням ключових подій в технологічному розвитку людства, оцінюючи загрози людству, що можуть призвести до його деградації і повного зникнення. У даний момент ключовим напрямком цих досліджень буде дослідження можливості створення так званого Базового Штучного Інтелекту (БІІ, artificial general intelligence), технології, має чималу потенційну можливість залишити людство назавжди "не у справ".

Одиницею Базового Штучного Інтелекту вважається машина або обчислювальна система, інтелектуальні можливості якої перевищують інтелектуальні можливості людини. Така машина вже буде в змозі самостійно розробляти власні програми і розвивати технології. Поняття БІІ було введено в ужиток у 1965 році талановитим математиком, криптоаналитиком і фахівцем в області інформаційних технологій Ірвінгом Джоном "Джеком" Гудом (John Irving "Jack" Good). Починаючи з того моменту, поняття БІІ фігурує у багатьох науково-фантастичних творів, в яких звучить одна жахлива ідея, суть якої полягає в тому, що "коли розвиток інтелекту не буде стримуватися біологічними і фізіологічними обмеженнями, людство перестане бути самим інтелектуальним видом на Землі і перестане бути домінуючою силою, яка визначає майбутнє".

Джаан Таллінн (Jaan Tallinn), один із засновників відомої комунікаційної компанії Skype, свого часу висловився з цього приводу: "Завдяки розумінню, маніпуляції і використання технологій, після 4 мільярдів років історії розвитку природи, людство стало домінуючою силою, що визначає майбутнє планети та цивілізації. Але нам треба уважно придивитися до того, як ми впливаємо зараз на планету, для того, щоб дізнатися, що станеться, якщо ми перестанемо бути домінуючим видом".

Пояснюючи трохи заплутане вищенаведене висловлювання, скажу, що потенційна загроза з боку БІІ полягає навіть не у ворожості майбутніх інтелектуальних машин і систем, цей штучний інтелект може бути налаштований до людства досить лояльно. Але, загроза зникнення людства як виду полягає у впливі домінуючої сили на навколишнє середовище, яка намагається пристосувати його під свої вимоги. В якості прикладу можна навести зменшується на Землі популяцію горил. Не можна сказати, що людство ставиться до них винятково вороже, але вплив людства на навколишній світ ставить під загрозу можливість виживання цього став рідкісним виду мавп. У силу високих інтелектуальних здібностей БІІ у нього є потенціал для створення такої парадигми між собою і людством як видом.

Звичайно, до створення суперинтеллектуальной машини або обчислювальної системи людству доведеться пройти досить довгий і тернистий шлях. Але дослідження в області розробки штучного інтелекту, які ведуться безліч наукових організацій, дають деякі практичні результати. Яскравим прикладом того є робота, проведена в минулому році дослідники з Массачусетського технологічного інституту. Під час цих досліджень вчені змусили два комп'ютера, "озброєні" спеціалізованим програмним забезпеченням, виконати дві незнайомі завдання, керуючись тільки описом цих завдань і примітивними інструкціями щодо їх виконання. Озброєний тільки варіантами можливих дій і не "знає" мови програмування, один з комп'ютерів впорався із завданням розробки вихідного коду програмного забезпечення, яке справлялося з виконанням 80 відсотків функцій, описаних у поставленому завданні. Другий комп'ютер навчився грати стратегічну гру "Sid meier's Civilization II" і ставав переможцем у 79 відсотках ігор, в яких він брав участь.

І це тільки один із численних прикладів розробки систем штучного інтелекту, які ведуться провідними науковими установами, такими як Массачусетський технологічний інститут, Стенфордський університет та ін. При цьому, все відбувається у світі, де поки дотримується закон Гордона Мура і обчислювальні потужності подвоюються кожні два роки.

Навіть з тим, що поняття БІІ є поки тільки науковою фантастикою, до нього слід ставитися повністю серйозно. "Ми самі ще погано розуміємо, чим буде повноцінний штучний інтелект і чим загрожує для людства його появу. І навіть не цей ризик є зараз головним, головним є те, що до самого останнього моменту над цим ніхто серйозно не замислювався і не проводив досліджень в цьому напрямку", - кажуть представники команди CSER.

Дослідники CSER будуть зосереджуватися не тільки на запобігання лих людства, викликаних імовірним "приходом Скайнета". Вони так само будуть розглядати й інші варіанти, які несуть потенційну загрозу для людства, включаючи розвиток біо - і нанотехнологій, наслідки використання технологій геоинженерии, наслідків глобальних кліматичних змін та багато іншого. Ця група, звичайно, не стане групою супергероїв, яка коли-небудь врятує все людство. Але дослідження, проведені в центрі CSER, допоможуть звернути увагу на потенційні загрози з боку технологій і вчасно прийняти заходи по їх запобіганню.

|