Група колишніх та нинішніх працівників компаній, що займаються штучним інтелектом (ШІ), включаючи OpenAI та Google DeepMind, висловила занепокоєння щодо ризиків, пов’язаних з цією технологією, зокрема «вимирання людства». Про це повідомляє агентство Reuters.
У відкритому листі 11 колишніх та нинішніх співробітників OpenAI, а також одного колишнього та одного нинішнього співробітника Google DeepMind зазначено, що фінансові мотиви компаній, що займаються ШІ, перешкоджають ефективному контролю.
«Ми не віримо, що спеціальні структури корпоративного управління достатні для зміни цієї ситуації», – йдеться у листі.
Автори листа попереджають про ризики нерегульованого ШІ, починаючи від поширення дезінформації до втрати контролю над незалежними системами ШІ та поглиблення існуючої нерівності, що може призвести до «вимирання людства».
Дослідники виявили приклади генераторів зображень від компаній, включаючи OpenAI та Microsoft, які створюють фотографії з дезінформацією, пов’язаною з виборами, незважаючи на політику проти такого контенту.
Компанії, що займаються ШІ, мають «слабкі зобов’язання» щодо обміну інформацією з урядами про можливості та обмеження своїх систем, йдеться в листі, додаючи, що на ці фірми не можна покладатися, щоб вони добровільно ділилися цією інформацією.
Цей відкритий лист є черговим, який викликає занепокоєння щодо безпеки технології генеративного ШІ, яка може швидко та дешево створювати текст, зображення та аудіо, схожі на людські.
Група закликала компанії, що займаються ШІ, сприяти процесу, за якого нинішні та колишні співробітники можуть висловлювати занепокоєння щодо ризиків, і не застосовувати угоди про конфіденційність, які забороняють критику.
Щоб завжди бути в курсі найважливішого, читайте нас у Telegram