Menu

Вчені збираються прищепити етику і мораль систем штучного інтелекту робототехнічних систем

Ученые собираются привить этику и мораль системам искусственного интеллекта робототехнических систем


Група дослідників з університету Тафтса (Tufts University), університету Брауна (Brown University) та Ренселлеровского політехнічного інституту (Rensselaer Polytechnic Institute) вже кілька років працюють в напрямку створення роботів, поведінка яких не буде підкорятися суворому набору правил. Ці роботи зможуть змінювати свою поведінку у відповідності з закладеними в них нормами моралі і етики, які будуть максимально наближені до норм поведінки людини. Якщо робота вчених увінчається успіхом, то в результаті цього з'явиться штучний інтелект, здатний оцінити поточну ситуацію і прийняти складні з етичної точки зору рішення, які будуть мати більш високий пріоритет, ніж строгий набір інструкцій, закладений в програму поведінки робота.

Сімдесят два роки тому, письменник-фантаст Айзек Азімов ввів поняття трьох законів робототехніки, які є свого роду "моральним компасом", що направляє дії високорозвиненого штучного інтелекту. На жаль, рівень розвитку сучасних технологій штучного інтелекту не дозволяє робототехническим систем сприймати повну інформацію про навколишньому їхньому середовищі, і до появи перших роботів, здатних усвідомлювати і керуватись законами Азімова, пройде ще дуже багато часу.

Тим не менше, дослідники з університету Тафтса, очолювані професором Мэттиасом Шеуцем (Prof. Matthias Scheutz), займаються проблемами робототехнічної моралі та етики вже досить давно. Дослідники намагаються розкласти принципи людської моралі на набір більш простих основних правил, дотримання яких дозволить поведінки робототехнічних систем наслідувати високоморального людини. Розробляється вченими структура правил формалізується у структуру алгоритмів, які можуть бути включені в систему штучного інтелекту. І впровадження цих алгоритмів дозволить автоматичній системі виправдовувати свої дії і обходити набір чітких правил в тих випадках, якщо поведінка системи може вийти за рамки загальноприйнятих моральних норм.

Прикладом вищесказаного може послужити наступна ситуація. Уявіть собі, що роботу-санітарові доручено доставити пораненого бійця до найближчого медичного пункту для надання йому там допомоги. Але в момент транспортування пораненого на шляху робота зустрічається ще один поранений чоловік, який перебуває у критичній ситуації. Вищезгаданий "моральний компас" дозволить роботу перервати виконання поточного основного завдання, оцінити наявну ситуацію і прийняти рішення про негайне надання допомоги знайденому людині або про продовження виконання первісної завдання з транспортування першої людини.

Однією з головних думок, які можна почерпнути з романів Айзека Азімова, є те, що ніяка, нехай навіть дуже великий набір чітких правил, не зможе забезпечити правильну роботу робототехнічної системи в кожному з можливих сценаріїв розвитку подій. У будь ланцюжку подій рано чи пізно відбудеться несподіване відхилення, яке запровадить робототехническую систему в ступор і послужить причиною скоєння роботом "необдуманих" дій. Професор Шеуц і його колеги повністю погоджуються з цим постулатом, і для подолання обмежень ними була розроблена двоступенева система прийняття рішень.

З точки зору дослідників, всі рішення, прийняті системою робота, повинні проходити попереднє "моральну оцінку", реалізацію якої вже можна бачити в системі штучного інтелекту суперкомп'ютера Watson компанії IBM. Якщо прийняте рішення відповідає моральним нормам, то вона приймається до виконання. У зворотному випадку виробляється ще одне рішення, джерелом якого є система, розроблена групою професора Шеуца, і яка враховує всі складності людської етики.

Слід зазначити, що роботи дослідників у цьому напрямку проводяться за замовленням і фінансуються ВМС США. Тому перші роботи, які отримають набори моральних правил і обмежень, будуть бойовими роботами і роботами, які надають солдатам всіляку допомогу. І це, в свою чергу, зможе стати гарантією того, що сценарії на кшталт сценарію фільму "Термінатор" стануть просто неможливими.

|