Свіжий номер

5(505)2024

Час ставати сильнішими

Стати автором

«Межі існують, і для людини добре їх розуміти»

Сучасні технології, різноманітні ґаджети і девайси – це те, що стало нашою повсякденністю. Майже в кожного з нас є смартфон, потужність якого була захмарною реальністю для власника домашнього комп’ютера ще 20 років тому. Ми можемо бути онлайн 24 години на добу та вирішувати за допомоги сучасних технологій одночасно кілька завдань у різних куточках світу. Сьогодні ведуться розмови навіть про створення електронного уряду. Оскільки машина може ухвалювати рішення, враховуючи більшу кількість даних, аніж людина, та бути більш об’єктивною (а ще й байдужою до корупційних махінацій!), на думку прихильників такого розвитку подій, слід віддати долю нашого майбутнього в умовні руки досконаліших створінь. Які питання постають у цьому контексті перед Церквою? Гово- римо про це з керівником проекту «Етика і технології Львівської бізнес-школи Українського католиць- кого університету» Володимиром Хіцяком.

– Скажіть, будь ласка, чому взагалі постає питання етики і технологій, адже технології покликані нам помагати, а не шкодити?

– Питання етики завжди постає, щойно людина починає впроваджу- вати якісь інновації або взагалі наближається до певних меж. Етичні виклики – це, власне, питання меж, а технології допомагають ці межі розсувати, а часто навіть йде мова про подолання меж «людськості», тому питання етики присутнє. Ми завжди намагаємося дати відповідь на запитання: чи це добре, чи погано? Чи це зашкодить, чи ні? Технології для більшості користувачів до певної міри є загадкою, а те, що покрите таємницею, викликатиме супутні запитання, в тому числі: як воно вплине на мене? Де межі? Чи завдасть шкоди?

– А можете навести приклад такого «виходу за межі», який спричиняє проблему?

– Можемо згадати часи пізнього Середньовіччя і раннього Модернізму. З винаходом ткацького верстата постало питання добробуту фермерів. Згадаймо вислів Томаса Мора «вівці пожирають людей». Розвиток суконних мануфактур в Англії спри- чинив так зване «обгороджування» (а точніше – захоплення) общинних земель, і багато дрібних землевласників перетворилися на жебраків або пішли працювати на ті ж таки мануфактури. Згодом були побоювання, що телебачення повністю замінить театр і так далі…

Зараз питання меж стоїть дуже гостро, адже розвиток технологій дозволяє вийти як за межі видимі, так і за межі невидимі: наприклад, осво-єння космосу чи відтворення геному. Більше того, ми є свідками спроб відтворити, а краще сказати створити нові сутності, наприклад, суперінтелект, який своїми можливостями перевищуватиме інтелект людський. Відповідно тут теж є межа, бо постає питання: хто ми є, яка місія людини, яка її ідентичність? Особливо коли йдеться про концепцію трансгуманізму, тобто ідею злиття людини і машини в єдину сутність. Ідеться про майбутнє людства як такого: яка наша місія, наше призначення, як можемо себе ідентифікувати?

– Але науковець заперечить і скаже, що створення таких меж гальмує науку, бо розбивання, руйнування цих меж і є рухом науки вперед. Він скаже, що етика і наука – це дві різні категорії, які не треба зіставляти, не треба ставити перешкод науці…

– Звісно, не треба гальмувати науку, але якщо науковець відповідальний, він поставить перед собою два запитання: що я роблю і для чого я це роблю? Завжди є кінцева мета – чого я хочу досягти? Окрім мети, є ще питання засобів, тобто якими засобами я її досягну? Хоча з історії знаємо, що питання засобів хоч і завжди актуальне, та іноді ігнорується. Всі тоталітарні режими, які «благовістили» світле майбутнє для певної групи людей, стверджували, що засоби не важливі, важливою є мета, до якої ми прийдемо. Досвід людського буття вже довів, що ігнорування засобів призводить до великих проблем, до великих трагедій.

– Ви згадали про штучний інтелект. Наскільки небезпечним є створення чогось такого, що здатне думати, як людина, ухвалювати рішення?

Я не вважаю, що штучний інтелект є небезпекою, небезпекою є його безвідповідальне використання. Небезпекою є наше легковажне переконання, що меж не існує і все можливо та дозволено. Кожна тверезомисляча людина сама собі постійно дає відповідь на ці запитання щоденно: де моя межа, де межа моїх дій, моїх втручань?

Штучний інтелект не є небезпекою сам по собі, небезпекою є, якщо це можна так назвати, цілковита передача людських повноважень машині.

– Машина буде більш відсторонена, більш об’єктивна в ухваленні рішень, адже кожен із нас має свої слабкості, свої вподобання, а машина буде вільною від цього.

Вона буде вільною не тільки від цього, а й від розуміння того, що є людське буття і яка його кінцева мета. Ми навряд чи колись навчимо машину мислити повністю, як лю- дина, найбільше, що машина може, це імітувати. Вона отримує якісь історичні дані, вчиться і, базуючись на цих даних, видає певні рішення, які ми використовуємо у своєму щоденному житті. Чи може машина стати людиною? Не може! Вона може тільки імітувати, що вона людина. Коли ми це забудемо і почнемо сприймати цю імітацію як звичну реальність, от тоді буде небезпека, бо ми добровільно віддамо машині те, що не може бути передане, те, що не може бути відтворене в якійсь іншій сутності.

В людському бутті, як унікальному бутті, очевидно, є щось таке, що ніколи, ні за яких обставин не може бути відтворене в іншій сутності, бо воно підірвало 6 значення цієї сутності. Машина є нашою допомогою, вона є чимось рукотворним, але ми не є рукотворні. В нас є своя, унікальна місія.

– У Станіслава Лема в «Големі XIV» є машина, здатна навчатися, Робот досягнув такого розвитку, що взяв і відключився, йому все це стало нецікаво. Тобто ми можемо створити таку машину, яка не буде лише імітувати, а перевершить нас, буде створювати якесь нове знання, додавати щось доброго?

Схожі машини вже є. Проаналізуймо наш триб життя, коли ми зранку встаємо, то зазираємо до нашого смартфона, щоб подивитися, яка буде погода і відповідно до цього одягаємося. На google-maps дивимося, де є корки, і плануємо маршрут чи час виїзду. Це і є штучний інтелект, просто в цьому випадку ми говоримо про дуже прості побутові речі. Але той самий штучний інтелект, ті самі машини допомагають нам вирішувати набагато важливіші, глобальні проблеми. І в чому криється небезпека? Ми можемо створити машину, яка вчиться, тобто запустити так зване «машинне навчання» (machine learning). Алгоритм передбачає, що машина буде вчитися на певних даних, які ми їй даємо чи які вона обсервує з оточення, з мережі, з розпізнавання емоцій, жестів. Машина це акцептує, оцінює і, базуючись на цих даних, продукує певні результати. Де тут проблема? Machine learning це до певної міри «чорний ящик», і людині доволі складно відстежити, Як машина вчиться, які зв’язки вона створює між різними частинами даних, яку вагу присвоює кожному з них і чому. Тобто маємо такий собі парадокс в наших силах запустити систему, яка буде навчатися у схожий спосіб, як це робить людина, але практично неможливо «розшифрувати» сам процес навчання.

Є дуже багато сервісів, які вміють оцінювати і класифікувати величезні масиви даних, і по суті, побудова штучних нейромереж, штучного інтелекту не є чимось таким, що ви- магає значних ресурсів. Ми можемо створити таку машину, і зараз є для цього багато можливостей. Той же Google виклав у вільний доступ платформу Tensor Flow для побудови і навчання нейромереж. Це означає, що практично кожен може побудувати свою нейронну мережу.

– Але ж машина може стати расистом?

Так, були розробки, які, базуючись на певних даних, вирішували, що люди з певним кольором шкіри мають більшу схильність до злочинів. Машина бере дані з нашого люд- ського життя, з нашої людської історії. Є такий цікавий парадокс: коли ми говоримо про гарне, світле майбутнє, яке збудуємо, то все ж говоримо про нього в термінах минулого, тому що нашу оцінку чи сподівання від майбутнього будуємо на досвіді, а його коріння – в минулому, в історії.

– А як щодо поєднання людського і машинного, тобто коли створюються комбінації істот? На- скільки це загрозливо, наскільки ці технології зараз розвиваються і як можуть бути впроваджені у життя? Які наслідки вони можуть мати?

Це ще одна ділянка особливих досліджень чи особливих побоювань оте потенційне злиття людини і машини. Є ціла філософія трансгуманізму, яка говорить, що це класно, що ми рано чи пізно до цього прийдемо і в такий спосіб вирішимо всі проблеми людей, наприклад, досягнемо безсмертя.

Як ми вже говорили, чи машина буде тією ж сутністю, що й людина, чи тільки імітуватиме? Тобто брати певні зразки поведінки, дані й імітувати. Найімовірніше, це буде тільки імітація, а не окрема сутність, окремий суб’єкт, людина. Це буде дуже досконала імітація нас самих. Небезпека, я б сказав, полягає у потенційній здатності машин самовідтворюватися, тобто створювати наступні генерації машин без людського контролю. Скажімо, інженер корпорації Sun Microsystems Біл Джой, відомий своєю публікацією «Чому майбутнє нас не потребує?», вважає неконтрольовану реплікацію машин найбільшою загрозою людському родові.

– Серце б’ється, мозок працює, але є якийсь чип, що дозволяє людині, котра хвора і забувається, орієнтуватися в просторі. Я бачив людей, які ходять з такою картою, і вона підказує, куди рухатись. А якщо таку карту помістити в мозок?

Навколо цього питання зараз ламають списи дослідники, філософи, розробники таких систем: де є межа «збагачення» тіла людини? Існує два підходи. Перший: оснащення різноманітними технологіями, нанотехнологіями, чипами потрібне, але допускається, що воно потрібне тільки для виправлення певних несправностей організму (наприклад, хвороба Альцгеймера чи якась інша недуга мозку). Чип у такому випадку може перебрати на себе частину функціональності організму. Другий підхід ліберальніший, який виходить із припущення: добре, ми від цього нікуди не дінемось, тому нехай всі мають можливість себе оснастити, «апгрейднути» всіма технологіями, які тільки будуть доступні. Тут, власне, є небезпека створення ще більшої нерівності. Так, це відповідальність кожної людини щодо свого тіла і своєї психіки як вона себе як вона себе оснастить і які можливості здобуде. Але є інший бік суспільний, соціальний. Ми вже зараз бачимо, що в людей різні можливості, особливо коли говоримо не про одну країну, а порівнюємо різні країни. Для когось як щодня міняти щомісяця айфон обідати, а хтось не має доступу до найнеобхіднішого… А тепер уявімо собі ситуацію, що створюється група людей, які оснащують своє тіло, свій мозок технологіями, і є група людей, які не можуть цього зробити. Відповідно розрив між ними сильно збільшиться. Банальний приклад працевлаштування: є два кандидати, один оснащений різними чи- пами, на ходу перекладає з трьохсот мов, проводить складні обчислення, має здатність до левітації, а інший є прихильником природності людини і додатково не «збагачує» себе пристроями. Відповідно це теж його вибір, але ці люди в нерівних ситуаціях. Ідеться, можливо, навіть не про вибір, а про доступ: одні мають доступ, інші не мають. До речі, у спорті принцип обмеження вже давно працює допінги заборонені, існує суворий контроль.

Та важливішим від питання нерівності є питання ідентичності: де ми залишаємося людьми, а де перестаємо ними бути? Адже неконтрольоване оснащення тіла чи мозку, по суті, дорога в нікуди втрачається будь-який сенс «бути людиною».

– Зупинити все це ми, звісно, не можемо, але чи є в людства ресурс контролювати такі технологічні процеси? Як цей контроль відбувається на сьогоднішній день? Люди, які працюють над такими розробками, враховують етичні питання?

Думаю, враховують, тому що це зачіпає всіх. Ми бачимо, що від людських проблем страждають усі: і бідні, і власники багатомільярдних статків. В таких розробках часто спрацьовує кураж, як ми це називаємо, технологічний детермінізм: все, що може бути винайдене, повинно бути винайдене. Нам же цікаво подивитися, що вийде, як це розвиватиметься? І це захоплення випереджає наші аналітичні здатності. Під впливом цього куражу нам хочеться відкрити щораз більше нових знань і в цьому куражі ми пропускаємо момент, коли варто зупинитися й проаналізувати, що з цього буде, як воно відгукнеться в майбутньому.

Промовистим прикладом тут є Азіломарські (від назви міста) принципи штучного інтелекту. Буквально в січні відбулася глобальна конференція розробників штучно- го інтелекту, де були присутні дуже впливові особистості такі як Стівен Гокінг, Деміс Хассабіс чи Рой Курцвейл, тобто люди, які займаються або наукою, або розробкою нових технологій. Було прийнято 23 принципи штучного інтелекту і, по суті, вони вперше на такому рівні проголосили етичні принципи розробок цієї технології. Це свого роду проголошення напрямків руху в розробці та впровадженні штучного інтелекту.

– Але завжди знайдеться такий собі «містер Путін», який може використати, і вже сьогодні дуже потужно використовує, різні гібридні методи війни і може використати технологічні досягнення, не зважа- ючи на жодні етичні принципи…

Звичайно. Додам, що є ще одна етична проблема, яку порушує такий швидкий розвиток технологій, вони стають щораз доступнішими, легшими для відтворення.

Сахаров, створивши водневу бомбу, потім жалкував про це.

Воднева бомба це трішечки інший тип технологій. Чим відрізняється цей тип технологій, який маємо сьогодні, від ядерної зброї, Ресурсами. Ядерну бомбу ми в цій кімнаті не зробимо, а створити робота чи машину, яка працює на штучному інтелекті, не проблема. За два роки можна навчитися мови програмування і математичної статистики, тоді питання створення своєї нейромережі, робота чи машини на штучному інтелекті питання короткого часу. Технології стали доступними, і це проблема, бо вони стали доступними для всіх, у тому числі й для диктаторів, для їхніх режимів…

– Наприклад, у Китаї все під тотальним цифровим контролем.

Так, людина стає більш залежною від технологій, в тому числі й від влади в авторитарних країнах. Стирається межа між приватністю і інтересом бути захищеним. З одного боку, міста оснащені камерами спостереження, а з іншого права на приватність. Нема ще вирішення питання межі між приватністю і відкритістю.

– Середньостатистичний українець має певний набір технологій: інтернет, ноутбук, мобільний телефон тощо. Чи на цьому рівні виникають питання етики? Як правильно користуватися цими засобами? Чи створюють вони загрозу?

Жодна технологія сама по собі не створює загрози. Штучний інтелект створює загрозу виключно в процесі використання. На такому побутовому рівні це можуть бути хакерські атаки чи крадіжка даних про банківські рахунки, дані про картки, номери телефонів, використання приватних даних з метою шантажу тощо.

Це може бути, але я б тут говорив про загрозу неконтрольованого занурення в ці технології. Я колись розмовляв із одним венчурним інвестором, дуже цікавою людиною, і він сказав, що для нього загрозою є поширення віртуальної реальності. Може настати момент, коли більшість людей, слабовольних, слабохарактерних, які не контролюють свого життя повноцінно, створять у віртуальній реальності свій світ, у який тікатимуть від реального життя. Вони навіть не матимуть потреби з нього виходити. Особливо якщо буде гарантований базовий дохід, про який зараз багато говорять. Вкупі віртуальна реальність і базовий дохід дають можливість створити свій світ і не виходити з нього. І це буде цілковито інша реальність, ніж те, що є зараз: ігроманія, залежність від соцмереж тощо. Це буде багатовимірна реальність, збагачена ефектами присутності, яка відтворюватиме наші таємні мрії і фантазії, занурюючи нас у них. Це створює ризик для людських стосунків. Навіть у щоденному побуті ми інколи втрачаємо контроль над цими моментами.

Є ще третя проблема, яку ми рідко зауважуємо, але вона може дуже сильно затуманити нам майбутнє. Це наша здатність ухвалювати рішення. Ми щораз більше покладаємося на «напівфабрикати» рішень, які нам пропонують машини, а не «сирий матеріал», який беремо, аналізуємо, опрацьовуємо, на основі чого ухвалюємо рішення. Ми зараз тішимося, що ухвалюємо рішення самостійно, але насправді ми це робимо на готових «напівфабрикатах»! Те, що я раніше говорив: ми не знаємо, як машина продукує рішення, як вибудовує зв’язки між даними. Машина нам «випльовує» якесь рішення, ми його аналізуємо і формуємо начебто-своє-рішення. Кажемо їй: «Дякую, я оцінив твою допомогу, ти мені все правильно підказала». Машина отримує нашу реакцію як зво- ротний зв’язок, як нові дані для себе, тобто сигнал від нас «роби це далі». І в кожному наступному нашому рішенні частка машинного буде що- раз більшою. Коли ми втрачаємо цей свій шлях ухвалення рішень, ми вже не ухвалюємо рішень, а тільки апробуємо їх на основі виданого на екрані! Вже згадуваний Біл Джой писав у своїй статті, що ми можемо прийти до ситуації, коли в нас не залишиться іншого вибору, ніж прийняти рішення машин, і на цьому етапі ми навіть не зможемо їх вимкнути, бо це буде рівнозначно самогубству.

Коли ми щоразу клікаємо на «прийняти», здебільшого не задумуємося над тим, куди ці рішення ведуть. Тому важливо, аби людина залишила за собою здатність конт- ролювати весь цикл вироблення і ухвалення рішень. Вважаю, це буде найзатребуваніша компетенція майбутньому.

– А як Церква повинна ставитися до технологій: активно висловлюватися чи дистанціюватися?

Роль Церкви, на мою думку, ключова, адже вона несе сакральні знання про людину та її місію. Священні Книги про ці межі, про які ми вже говорили, в дуже цікавий, алегоричний спосіб нагадують: дерево пізнання добра і зла в раю, Вавилонська вежа, Ноїв ковчег тощо. Це пригадування про те, що межі існують і для блага самої ж людини добре їх розуміти, діяти в цих межах, бо вони охороняють нашу людську ідентичність.

Церква повинна, я вважаю, активно використовувати технології. По-перше, для того, щоб розуміти, що це таке, по-друге, для того, щоб могти вести діалог з розробниками, бо часто є стереотипне враження, що технології створюють жадібні комерсанти, які хочуть побільше заробити, не замислюючись над тим, до чого ці технології призведуть. Так не є! Насправді це часто жертовні люди, які у свій спосіб хочуть добра людству, хочуть урятувати світ, хочуть привнести у нього щось нове. Так, інколи вони випускають зі своєї уваги багато важливих речей, тому потрібна платформа для діалогу. Треба розуміти, що відбувається у сфері нових технологій, де є оті больові точки. Розробники часто ці точки теж відчувають, але вагаються, що обрати: гіпотетичне благо людства (оскільки є проблема, яка людству болить, і важливо її вирішити) чи етичні застереження. Коли щось болить, ми часто закриваємо очі на все інше і намагаємося подолати біль. Так є і з технологіями: нас болить, ми бачимо, що та чи та технологія може цей біль зменшити, і ми кидаємося її впроваджувати, не залишаючи можливості зупинитися і проаналізувати наслідки. Особливо це стосується біотехнологій, технологій у медицині, бо там реально болить. А Церква, власне, несе інтегральне знання про сутність болю і страждання, про милосердя і співучасть кожного з нас у досвіді іншого, і тут питання: чи страждання і біль іманентні людській природі, чи вони можуть бути подолані? Чи смертність іманентна людській природі, чи вона може бути подолана? Нам треба про це говорити. Часто виникає проблема, коли ми приймаємо тільки мову математики чи природничих наук і починаємо нею спростовувати, доводити та відкидати все, що в цю реальність не вписується. Але мова математики чи мова науки це всього-на-всього одна з формальних систем, яка не є повною, що доведено знаменитою теоремою Гьоделя про неповноту, і вона нам ніколи не дозволить до кінця розказати про іншу дійсність, ту, пізнання якої є поза можливостями формальних систем математики, мови. Є інша реальність реальність наших відчуттів, як у Церкві це називають, духовна реальність, яка не може бути описана за допомоги традиційної та доступної для нас системи знаків і значень.

Володимир Хіцяк – магістр філософії та богослов’я, випускник Українського католицького університету. Впродовж семи років працював експертом з PR та марке- тингових комунікацій у міжнародній телекомунікаційній компанії. Координує дослідницький проект «Етика і технології», який започаткувала Львівська бізнес-школа УКУ.

Розмовляв Анатолій Бабинський

Поділитися:

Популярні статті