Перейти до основного вмісту

Головний операційний директор DeepMind про побудову відповідального майбутнього для АІ та людства

Нещодавно один із супермаркетів Нової Зеландії був розлючений, коли виявив, що його штучний інтелект бота, який пропонує страви, вийшов з ладу. Замість того, щоб пропонувати корисні рецепти з використанням своїх продуктів, він почав пропонувати такі страви, як "рисовий сюрприз з відбілювачем" і "загадкове м'ясне рагу" (причому загадковим м'ясом виявилася людська плоть).

Хоча це, можливо, і розважало інтернет-жартівників, які підказували боту все більш дивні інгредієнти, це також викликає зростаюче занепокоєння. Що може статися, якщо ШІ потрапить у погані руки?

Лише за рік до цього дослідники використали ШІ, навчений шукати корисні нові ліки, для створення 40 000 нових видів хімічної зброї всього за шість годин.

Навіть коли ШІ робить те, чому його навчили, ми вже бачили багато прикладів того, що може статися, коли алгоритми розробляються без нагляду: від небезпечних медичних діагнозів до расових упереджень і створення та поширення дезінформації.

Зважаючи на те, що гонка за розробку все більш потужних великих мовних моделей набирає обертів, на виставці TNW 2023 ми поставили запитання експертам зі штучного інтелекту: "Чи становитиме ШІ загрозу для людства?"

Незалежно від того, чи вірите ви в апокаліптичне термінаторне майбутнє чи ні, ми всі можемо погодитися з тим, що ШІ потрібно розвивати відповідально. Однак, як завжди, інновації значно випереджають регулювання. Оскільки політики намагаються не відставати, доля ШІ значною мірою залежить від того, чи зможе технологічна спільнота об'єднатися для саморегулювання, забезпечення прозорості та, можливо, найнечуванішого - для спільної роботи.