Група відомих дослідників штучного інтелекту, включаючи Ілона Маска, закликали припинити розробку штучного інтелекту та його систем у великому масштабі у відкритому листі, адресованому лабораторіям по всьому світу. За їх словами, це програмне забезпечення несе в собі великі ризики для суспільства та людства.
У листі вказується, що лабораторії штучного інтелекту наразі беруть участь у гонці за підтримку та розгортання систем машинного навчання, які ніхто, навіть їхні творці, не може достовірно зрозуміти, передбачити чи контролювати.
Хоча лист підписали відомі технічні діячі та дослідники ШІ, навряд чи він матиме якийсь вплив на дослідження. Технічні компанії поспішили випустити нові продукти, часто відкидаючи раніше висловлені занепокоєння щодо безпеки та навіть етики. У листі наголошується на терміновій необхідності зупинити розробку ШІ для розробки та впровадження набору спільних протоколів безпеки для проектування та розробки ШІ, які контролюються та контролюються незалежними зовнішніми сторонами.
Проте безперечно, що технологія штучного інтелекту викликала багато занепокоєнь серед експертів і громадськості. Причин для занепокоєння багато, насамперед втрата робочих місць. Оскільки системи ШІ покращують здатність виконувати багато робіт і завдань, які зараз виконують люди, вони можуть призвести до широкого безробіття або неповної зайнятості. Це може мати руйнівні наслідки для суспільства.
Потрібне управління
Перед нами стоїть виклик не стільки технологічних інновацій як таких, скільки самого цифрового управління. На жаль, наше суспільство не готове до вторгнення штучного інтелекту в наше життя. Наші інституції та системи регулювання все ще в основному закріплені в епосі промислової революції. Інноваційна сила штучного інтелекту, якщо її використовувати зі злими намірами, може сприяти урядам з авторитарними амбіціями, сприяючи поширенню авторитаризму в усьому світі. Отже, давайте подивимося, які небезпеки може створити ШІ без управління.
- Маніпуляція та обман. Є занепокоєння, що можливості штучного інтелекту щодо проведення цілеспрямованих кампаній переконання та автоматизації оманливої інформації можуть бути використані для маніпулювання громадською думкою або втручання в демократичні процеси.
- Упередження і несправедливість. Якщо системи штучного інтелекту навчаються на упереджених даних або погано розроблені, вони можуть несправедливо дискримінувати групи людей або приймати важливі рішення, які негативно впливають на певні групи населення. Це загроза справедливості та справедливості.
- Відсутність прозорості. Складні системи штучного інтелекту, засновані на машинному навчанні, часто непрозорі, їх важко зрозуміти, інтерпретувати та довіряти людям. Ця проблема «чорного ящика» ускладнює належний моніторинг і регулювання.
- Безробіття і психічне здоров'я. Деякі дослідження показують, що майбутнє, яке характеризується широким розповсюдженням штучного інтелекту та автоматизацією робочих місць, може збільшити рівень тривоги, депресії та інших проблем, особливо для тих, хто не зможе знайти значущу роботу. Мета та соціальні зв’язки мають вирішальне значення для благополуччя.
- Занепокоєння щодо суперінтелекту. За словами таких експертів, як Ілон Маск, Стівен Гокінг і Стюарт Рассел, хоч і не неминуче, передовий ШІ з інтелектом людського або надлюдського рівня, який перевершує людські можливості, може мати величезний вплив на суспільство, який важко передбачити або контролювати. Необхідні відповідні гарантії та механізми контролю.
Ні для паузи, так для регулювання ШІ
Тепер давайте подивимося на заперечення тих, хто вважає, що можна контролювати та регулювати ШІ, не роблячи пауз у часі.
- Зупинка розвитку штучного інтелекту не є життєздатним рішенням. Штучний інтелект є активною сферою досліджень і застосування в реальному світі з багатьма корисними варіантами використання. Повністю заборонити його було б майже неможливо, і це принесло б більше шкоди, ніж користі. Технологія також може поширюватися таємно, що ще більше ускладнить управління ризиками.
- Ризики передового ШІ часто переоцінюють. Хоча нам потрібно бути проактивними та вдумливими, суперрозумні машини навряд чи захоплять світ найближчим часом, вважають дослідники, які сьогодні створюють системи ШІ. Багато експертів стверджують, що ми маємо більше контролю, ніж це часто зображують у науково-фантастичних сценаріях апокаліпсису.
- З належними запобіжними заходами ШІ можна розробляти та використовувати відповідально. Застосування принципів конфіденційності, прозорості, інклюзивності та підзвітності на практиці може допомогти забезпечити відповідальний розвиток ШІ. Регулювання та найкращі практики можуть сформувати ШІ на користь суспільству, а не наражати його на ризик
- Зупинка інновацій – це не вихід. Замість того, щоб зупиняти прогрес, він повинен узгоджуватися з людськими цінностями та пріоритетами. Ідеї щодо управління ризиками штучного інтелекту включають такі речі, як конституційний штучний інтелект, дослідження вирівнювання цінностей, пояснення та оцінка впливу. Завдяки проактивним запобіжним заходам ви можете максимізувати переваги передового ШІ та мінімізувати шкоду.
- Люди також мають владу та відповідальність. На додаток до змін у політиці та запобіжних заходів, ми повинні сприяти обізнаності про відповідальні практики штучного інтелекту в наших спільнотах. Те, як люди вирішують розробляти, використовувати та взаємодіяти з технологіями штучного інтелекту, зокрема у своєму особистому житті, впливає на досягнення та вплив у масштабі. Обізнаність має вирішальне значення для забезпечення безпечного та етичного майбутнього ШІ для всіх.
Пустотлива перерва?
Нарешті, є й ті, хто побачив у листі з проханням про 6-місячну перерву злість. Вважається, що ця пауза може особливо принести користь конкурентам, які відстають і не можуть встигати за компаніями, які знаходяться на передньому краї розвитку ШІ.
Зазначається, що розглядати ШІ як монолітне ціле, а не як набір технологій на різних стадіях розвитку, некоректно. Не всі сфери розвитку штучного інтелекту представляють однакові ризики або потенційно небезпечні для зловживання. Пауза призведе до зупинки прогресу в усіх напрямках, навіть якщо ризики здаються мінімальними.
Крім того, припинення розробки штучного інтелекту може підірвати фінансування, інвестиції та партнерство, спрямоване на використання переваг ШІ. Індустрія штучного інтелекту стимулює значні інвестиції, стартапи, співпрацю в дослідженнях та інші нові підприємства. Тривала пауза може серйозно підірвати всі ці зусилля, навіть якщо прогрес зрештою відновиться.
Підводячи підсумок, хоча думати про ризики важливо, заклики до загальної паузи в розвитку штучного інтелекту, ймовірно, є надто крайніми та можуть бути контрпродуктивними, на думку багатьох інсайдерів галузі. Регулювання, навчання та розумний прогрес є кращими, ніж арешт на невизначений термін.
Завдяки відкритим дослідженням безпеки штучного інтелекту, запровадженню вказівок і принципів і колективній відданості відповідальному прогресу штучний інтелект може позитивно змінити наш світ у стійкий та етичний спосіб.
Те, як розвиток штучного інтелекту вплине на людство, залежить від нас, і ми повинні найкраще формувати це за допомогою проактивного управління та спільних цінностей. Загалом необхідна збалансована точка зору, щоб як отримати плоди, так і уникнути жалю.