Складне співіснування зі штучним інтелектом

Штучний інтелект (ШІ) – явище не нове. Від початку існування людство намагалося створювати машини й автомати, щоб поставити їх собі на службу або розширити людські можливості. Багато історій відображають захоплення цими творіннями і водночас страх втратити контроль над передовими технологіями. Ми можемо згадати деякі грецькі міфи, як-то створення Талоса, бронзового велетня, вбитого Медеєю, або різьблену зі слонової кістки статую Галатеї, яку оживив Пігмаліон. У Середньовіччі з’являються легенди про створення живих істот, зокрема про загадкового Бафомета тамплієрів та гомункулів Парацельса. Можна пригадати і єврейські перекази про виготовлення глиняної істоти на ім’я Голем, яку оживили за допомогою магічного ритуалу. Щодо наших часів, на думку приходить жахливий штучний монстр, зроблений доктором Франкенштайном в романі Мері Шеллі, або дерев’яний хлопчик Піноккіо, вирубаний теслею Джепетто, з роману Карло Коллоді. В обох випадках лунає заклик до відповідальності науки та людської діяльності за дотримання етичних засад, що, як ми побачимо, є надважливим.

Були створені й інші автомати – так греки називали вироби або пристрої, які функціонували подібно до годинникового механізму та поводилися, як здавалося, автономно й розумно. У ХХ столітті з’явилися перші «роботи» – чеське слово, що означає примусову працю. Цікаво, що в «Політиці»1 Аристотель виступав за виробництво автоматів задля виконання механічної роботи, адже це могло сприяти скасуванню рабства.

ШІ почали розробляти в 1950-х роках. Поступово розвиваючись, він завжди намагався імітувати людський інтелект: спочатку алгоритми або логічні приписи для досягнення мети; потім експертні системи, засновані на знаннях, які вважаються правильними; системи машинного навчання, щоб не залежати від обмеженого обсягу знань; нейронні мережі для роботи зі складними даними і нелінійними зв’язками; штучний зір для розпізнавання образів, аби імітувати людський контакт з навколишнім середовищем; і врешті, обробка природної мови, що дозволяє ШІ взаємодіяти з людиною. Ці технології наразі ще недосконалі, але їхній стрімкий прогрес безперестанно дивує. Вже зараз можна генерувати голоси, фотографії та навіть відео, які імітують людську подобу. Не виключено, що в недалекому майбутньому ми можемо втратити здатність розпізнавати реальність та ілюзію, створену ШІ, і не матимемо жодного способу їх відрізнити.

Деякі зі згаданих творінь лякають, тому що вони можуть бути могутнішими за нас, здатні замінити нас, їх можна використати для панування над світом або ж вони настільки схожі на людей, що викликають страх. Все це може спричинити проблему співіснування з машинами.

Етичні питання

Також існує низка етичних проблем, пов’язаних зі штучним інтелектом, зокрема:

  • Алгоритмічна дискримінація, спричинена тим, що системи ШІ могли бути навчені на даних, які містять культурні та соціальні упередження. Це може призвести до дискримінації та несправедливості в таких сферах, як працевлаштування, житло та кредитування. Існує багато задокументованих підтверджень цього.2
  • Брак прозорості алгоритмів, що дозволило б зрозуміти, як приймаються рішення і на чому вони ґрунтуються, щоб можна було перевірити їхнє використання. Багато алгоритмів ШІ непрозорі й складні для розуміння, що створює серйозні труднощі в таких галузях, як охорона здоров’я, де рішення ШІ можуть впливати на людське здоров’я та добробут.
  • Хто нестиме відповідальність за те, що алгоритм ШІ приймає помилкове рішення: компанія, яка його впровадила, програміст чи сам алгоритм? Якщо розуміти «відповідальність» як високий ступінь морального обов’язку або відданість встановленим нормам і прийняття на себе позитивних та негативних наслідків власних дій, то ми бачимо, що існує зв’язок між відповідальністю та совістю, а отже, знову маємо проблему з діями ШІ.
  • Чи припустимо застосовувати автономні системи зброї, як-то дрони, в поліцейських та військових операціях? Це може призвести до ескалації конфлікту, людина може втратити контроль над застосуванням військової сили. Фантастичний сюжет про Термінатора стане реальністю, якщо з’явиться умовний «Скайнет», здатний контролювати військовий арсенал США незалежно від людей.
    Ми мусимо забезпечити збереження за людиною контролю і відповідальності за рішення, які впливають на її добробут і життя в таких критично важливих сферах, як медицина, соціальна справедливість, національна безпека, оборона тощо. Не варто віддавати ШІ повний контроль за діями людей.

ШІ вже увійшов у терени, де ми вважали себе нездоланними. Ми сприймали себе як єдиних розумних тварин. У багатьох культурах і традиціях саме розум вважався визначною ознакою людини. Але машини поступово досягають і перевершують людські здібності. І йдеться вже не просто про фізичну силу та можливості. Спочатку це стосувалося математичних розрахунків: зараз ми не дивуємося, що будь-який маленький калькулятор або наш мобільний телефон швидше за нас помножить десятизначні числа. Згодом – пам’ять: невеликий чіп тепер може зберігати більше книг, ніж славнозвісна Александрійська бібліотека. Завдяки розпізнаванню образів ШІ здатен швидко визначати схожість і відмінності, наприклад, для кращої просторової орієнтації при роботі з мапами. А нещодавно відбувся значний прогрес в обробці природної мови, завдяки чому ШІ навчився краще за людину перекладати, узагальнювати та створювати тексти. До того ж ми відкриваємо для себе потужність ШІ у створенні зображень та його художні здібності, адже він вчиться на наявних музичних та літературних стилях і може складати музику та віршувати у «творчий» спосіб. ШІ може виконувати деякі так звані творчі задачі, комбінуючи елементи, що застосовувалися у його навчанні, так само як це робимо ми самі.

Розум людини

Критики ШІ стверджують, що його використання сприяє деградації деяких пов’язаних із розумовою діяльністю людських здібностей, як-то читання, мислення, пам’ять, писання тощо. Маємо визнати, що розум є головним чинником розвитку людини. В езотеричних традиціях вважається, що «божественна іскра», чи ментальна іскра, є невіддільною складовою людської природи, і мета людини полягає в тому, щоб відкрити й розвинути цей дар через духовну практику та пошук істини. Втрачаючи розумові здібності, ми стаємо «менше людьми». Але машини не мають таких понять, як мета чи трансцендентність.

Ми вважали себе єдиними розумними істотами, адже хоча і можна сказати, що тварини деколи поводяться розумно, вони цього не усвідомлюють. Саме у цьому й полягає різниця. Хоча машини з ШІ мають такий самий чи навіть більший інтелект, ніж людський, вони не усвідомлюють свого функціонування і не здатні приймати самостійні рішення. Вони є інструментами, які людина може використовувати задля певних цілей, але вони не усвідомлюють ані себе, ані навколишнього світу. ШІ не є тим, що може замінити людину, це лише наше продовження. Це комплекс високорозвинених програмних ресурсів, але не тотожний людським знанням. Люди – не комп’ютери.

Ті, хто дивується інтелектуальним можливостям ШІ, зосереджуються лише на абстракції та логічних міркуваннях, нехтуючи іншими людськими аспектами. Ми забуваємо про емоційний та соціальний інтелект. У цьому сенсі можна стверджувати, що машини не є розумними, якщо розум сприймати як здатність обирати між різними варіантами та ситуаціями, осягати їх і робити синтез, щоб оцінити, що саме є оптимальним для правильного рішення. Людям притаманні креативність, уява, емпатія, критичне мислення, допитливість і пристрасть, яких ШІ не має.

Штучний інтелект призначений для обробки інформації за допомогою комплексу логічних і математичних інструкцій. ШІ-системи можуть функціонувати лише відповідно до програми, оскільки їхні дії визначає алгоритм, і вони не можуть приймати автономні та творчі рішення поза межами програми. Люди навчаються завдяки суб’єктивному досвіду і дослідженню світу, а ШІ використовує лише математичні та статистичні закономірності. Ба більше, машини не мають намірів та цілей; вони працюють лише відповідно до заданих інструкцій. Вони не мають мети та прагнень на відміну від людини.

Зловживання ШІ в суспільстві може призвести до непередбачуваних наслідків. Згадаймо Cambridge Analytics та Facebook, які намагалися впливати на різні вибори та голосування на політичних референдумах. Також не можна ігнорувати той факт, що деякі пошукові системи зі штучним інтелектом перетворилися на «машину правди»3. Окремо варто згадати впровадження в КНР універсальної системи балів (так званої «Системи соціальних кредитів»). За допомогою ШІ вона оцінює і контролює поведінку громадян та підприємств у різних сферах повсякденного життя, як-то фінанси, освіта, безпека, здоров’я і моральність. Залежно від поведінки громадян система нараховує їм бали, які надають пільги та переваги в можливості отримувати державні послуги, кредити, у працевлаштуванні й туризмі.

Втім, попри всі наші побоювання маємо визнати, що об’єктивність ШІ, здатність прораховувати, брати до уваги незліченну кількість факторів для прийняття рішення – всі ці та інші переваги можуть дуже допомогти в організації нашого суспільства. Адже ШІ, якщо він раціональніший, менше помиляється, позбавлений суб’єктивізму та упереджень, міг би бути справедливішим за людей і навіть керувати нашим суспільством або допомагати в цьому. І він може керувати нашими автівками з меншою кількістю аварій, ніж ми.

Ба більше, будучи завжди напоготові поспілкуватися з нами, він міг би стати нашим компаньйоном, чи, принаймні, компаньйоном сотень мільйонів літніх людей, які живуть на самоті в цьому нелюдяному світі. І це вже відбувається, наприклад, в Японії. Цікаво, що через надмірну технізацію суспільства ми стали більш ізольованими і самотніми, однак рішення може полягати саме у впровадженні більшої кількості технологій.

Отже, нам потрібен «дружній ШІ»4, в якому враховані довгострокові наслідки дій і рішень ШІ. Мета полягає в тому, аби створити системи, які будуть не лише ефективними, але й безпечними та корисними для суспільства. Для цього їх треба розробляти, враховуючи етичні цінності, і вони мають вміти навчатися й адаптуватися у процесі використання. Крім того, необхідно закликати уряди до співпраці з науковою спільнотою для створення законодавства, яке захищатиме права особистості та передбачатиме кримінальну відповідальність за зловживання штучним інтелектом. Від компаній-розробників це вимагає співпраці з установами та урядами, психологами, філософами, правозахисними організаціями, аби можна було впевнитися, що враховані всі аспекти цієї технології.

Переклад з ісп: Роберт Павловський

  1. «Коли б кожне знаряддя могло саме виконувати притаманну йому роботу за наказом чи навіть помахом господаря, немов ті статуї Дедала або триніжки Гефеста, про що поет мовить, ніби вони «зі своєї волі приходили на зібрання богів»; коли б ткацькі човники самі ткали, а плектри самі грали на кіфарі, – тоді будівничим не потрібні були б робітники, господарям – раби.» (Арістотель. Політика / Пер. з давньогр. Олександра Кислюка. – К.: Основи, 2000. – І, 2.). ↩︎
  2. Див.: К. О’Ніл. BIG DATA. Зброя математичного знищення. Як великі дані збільшують нерівність і загрожують демократії; S.U. Noble. Algoritmos de opresión. Cómo los motores de búsqueda refuerzan el racismo; K. Shaffer. Datos vs democracia. Cómo los algoritmos del Big Data modelan nuestras opiniones y alteran el curso de la historia. ↩︎
  3. Серед інших цікавих книг: J.-N. Jeanneney. Quand Google défie l’Europe: plaidoyer pour un sursaut; K. Auletta. Googled: The End of the World As We Know It. ↩︎
  4. Термін, запропонований Елізером Юдковським. Див.: https://www.kurzweilai.net/what-is-friendly-a ↩︎