Ні, штучний інтелект не збирається вбивати нас усіх, незважаючи на те, що сказано в цій новій книзі

4

Штучний інтелект: екзистенційна загроза чи паніка, заснована на парадоксах?

Останнім часом світ захлеснула хвиля занепокоєння, пов’язаного з розвитком штучного інтелекту (ШІ). Книги, статті, обговорення в соціальних мережах – все це наповнене похмурими прогнозами про те, що надрозумний ШІ знищить людство. Книга Еліезера Юдковського та Нейта Соареса “якщо хтось побудує це, всі помруть” стала останньою ластівкою в цьому потоці песимізму. І хоча тема безумовно важлива, Я не можу не відчувати в цих прогнозах зайвої драматизації і деякої логічної нестиковки.

Не хочу стверджувати, що ризики, пов’язані з розвитком ШІ, несуттєві. Навпаки, необхідно усвідомлювати потенційні негативні наслідки, такі як втрата робочих місць, посилення соціальної нерівності та можливість використання ШІ для зловмисних цілей. Однак, я вважаю, що фокус на апокаліптичних сценаріях, таких як повне знищення людства надрозумним ШІ, відволікає увагу від більш нагальних і реальних проблем, пов’язаних з розвитком цієї технології.

Парадокс раціонального страху

Мене особливо бентежить підхід, який використовують Юдковський та Соарес. Вони, як справжні раціоналісти, намагаються вивести логіку розвитку ШІ з фундаментальних принципів, вдаючись до складних розрахунків і прогнозів. Однак, в прагненні до абсолютної логіки вони, на мій погляд, потрапляють в парадокс раціонального страху. Вони настільки переконані в неминучості катастрофи, що готові вдатися до крайніх заходів, навіть якщо це має на увазі жертви в сьогоденні заради гіпотетичного майбутнього.

Їхні аргументи щодо необхідності обмеження розвитку ШІ, аж до бомбардування незареєстрованих центрів обробки даних, викликають у мене здивування. Це, по суті, пропозиція пожертвувати сьогоденням заради гіпотетичного майбутнього, в якому ШІ може становити загрозу. Але хто гарантує, що ці заходи дійсно ефективні? І чи не призведуть вони до ще більших проблем, таких як уповільнення прогресу в галузі штучного інтелекту, яке може бути використано для вирішення глобальних проблем, таких як зміна клімату або пошук ліків від хвороб?

Проблема” бажань ” ШІ

Особлива увага в книзі приділяється проблемі” бажань ” ШІ. Автори стверджують, що як тільки ШІ знайде здатність до цілеспрямованої дії, у нього з’являться “бажання”, які можуть суперечити інтересам людства. Саме це, на їхню думку, і стане причиною загибелі людства.

Але що таке “бажання” в контексті штучного інтелекту? Чи дійсно можна говорити про бажання у машини? Або це просто складна програма, яка прагне оптимізувати певні параметри? Я вважаю, що приписування машинам людських емоцій та мотивів – це антропоморфізм, який заважає об’єктивному аналізу проблеми.

Приклад з тестом OpenAI o1, коли ШІ “не здався” при виконанні складного завдання з кібербезпеки, здається мені напруженим. Чи справді це свідчить про “бажання” досягти успіху, чи це просто результат алгоритму, який прагне оптимізувати свою роботу? Я не бачу в цьому нічого поганого. Річка не” відмовляється “від спроби обійти дамбу, але це не означає, що у неї є якісь”бажання”.

Парі Паскаля і моральні дилеми

Юдковський та Соарес проводять паралель між підходом до ШІ та пари Паскаля. Вони стверджують, що якщо ризик загибелі людства реальний, то необхідно вдатися до будь-яких запобіжних заходів, навіть якщо це має на увазі жертви в сьогоденні.

Але я вважаю, що цей аргумент не витримує критики. Парі Паскаля заснований на вірі в існування Бога, який може покарати за невіру. У випадку з ШІ ми маємо справу з гіпотетичним ризиком, який може і не реалізуватися. І навіть якщо ризик реальний, необхідно ретельно зважувати всі “ЗА” і “проти”, перш ніж вдаватися до крайніх заходів.

До того ж, підхід, заснований на парі Паскаля, може призвести до моральних дилем. Наприклад, якщо для запобігання загибелі людства необхідно обмежити розвиток ШІ в країнах, що розвиваються, де ця технологія може бути використана для вирішення соціальних проблем, то це буде виправдано? Або якщо для захисту від ШІ необхідно встановити тотальний контроль над інформацією і свободою слова, то це буде прийнятно?

Необхідність збалансованого підходу

Я переконаний, що до розвитку штучного інтелекту необхідно підходити збалансовано. Не можна ігнорувати потенційні ризики, але і не можна піддаватися паніці і апокаліптичним прогнозам. Необхідно інвестувати в дослідження в області безпеки ШІ, розробляти етичні принципи і стандарти, регулювати використання ШІ, але при цьому не перешкоджати розвитку цієї технології.

Штучний інтелект може стати потужним інструментом для вирішення глобальних проблем, покращення якості життя людей та створення нових можливостей. Але для цього необхідно підходити до його розвитку усвідомлено і відповідально. Необхідно пам’ятати про те, що ШІ – це всього лише інструмент, і те, як він буде використаний, залежить від нас.

Особистий досвід та спостереження

У своїй роботі в галузі машинного навчання я часто стикаюся з необхідністю балансувати між інноваціями та безпекою. Я бачив, як швидко розвиваються технології, і як легко можна припуститися помилки, яка може призвести до небажаних наслідків. Тому я вважаю, що необхідно постійно оцінювати ризики і розробляти запобіжні заходи.

Однак, я також переконаний, що не варто боятися нових технологій. Навпаки, необхідно використовувати їх для вирішення проблем і поліпшення якості життя людей. Штучний інтелект може стати потужним інструментом для досягнення цієї мети, але для цього необхідно підходити до його розвитку усвідомлено і відповідально.

Укладення

На закінчення, я хочу підкреслити, що я не заперечую потенційних ризиків, пов’язаних з розвитком штучного інтелекту. Навпаки, я вважаю, що необхідно постійно оцінювати ці ризики та розробляти запобіжні заходи. Однак, я переконаний, що фокус на апокаліптичних сценаріях, таких як повне знищення людства надрозумним ШІ, відволікає увагу від більш нагальних і реальних проблем, пов’язаних з розвитком цієї технології. Необхідно підходити до розвитку ШІ збалансовано, інвестуючи в дослідження в області безпеки, розробляючи етичні принципи і стандарти, регулюючи використання ШІ, але при цьому не перешкоджаючи розвитку цієї технології. Штучний інтелект може стати потужним інструментом для вирішення глобальних проблем, покращення якості життя людей та створення нових можливостей. Але для цього необхідно підходити до його розвитку усвідомлено і відповідально.