Британський нагляд за штучним інтелектом включатиме можливість безпосередньо вивчати технології деяких компаній. У своєму виступі на Лондонському технологічному тижні прем’єр-міністр Ріші Сунак повідомив, що Google DeepMind, OpenAI та Anthropic пообіцяли надати “ранній або пріоритетний доступ” до моделей ШІ заради досліджень і безпеки. За словами Сунака, це в ідеалі покращить перевірку цих моделей і допоможе уряду розпізнати “можливості та ризики”.
Ця заява з’явилася через кілька тижнів після того, як чиновники заявили, що проведуть первинну оцінку підзвітності, безпеки, прозорості та інших етичних проблем, пов’язаних з моделями ШІ. Очікується, що ключову роль у цьому процесі відіграватиме Управління з питань конкуренції та ринків країни. Велика Британія також зобов’язалася витратити початкові £100 млн на створення робочої групи з розробки базової моделі, яка займатиметься розробкою “суверенного” ШІ, призначеного для зростання британської економіки, мінімізуючи при цьому етичні та технічні проблеми.
Лідери галузі та експерти закликали тимчасово зупинити розробку ШІ, побоюючись, що творці просуваються вперед, не приділяючи достатньої уваги питанням безпеки. Моделі генеративного ШІ, такі як GPT-4 від OpenAI та Claude від Anthropic, отримали високу оцінку за свій потенціал, але також викликали занепокоєння щодо неточностей, дезінформації та зловживань на кшталт шахрайства. Теоретично, крок Великої Британії обмежує ці проблеми та дозволяє виявити проблемні моделі до того, як вони завдадуть значної шкоди.
Це не обов’язково дає Великій Британії повний доступ до цих моделей і коду, що лежить в їх основі. Так само немає жодних гарантій, що уряд виявить кожну серйозну проблему. Однак доступ може надати необхідну інформацію. Принаймні, ці зусилля обіцяють підвищити прозорість у сфері ШІ в той час, коли довгостроковий вплив цих систем не зовсім зрозумілий.
Читайте також: