Лише кілька днів тому на сторінці політики використання OpenAI було чітко зазначено, що компанія забороняє використовувати свою технологію для “військових і військових цілей”. З того часу цей рядок був видалений. Як вперше помітив The Intercept, компанія оновила сторінку 10 січня, “щоб зробити її зрозумілішою і надати конкретніші вказівки для конкретних послуг”, як зазначено в журналі змін. Компанія, як і раніше, забороняє використовувати свої великі мовні моделі (LLM) для будь-чого, що може завдати шкоди, і застерігає людей від використання своїх сервісів для “розробки або використання зброї”. Однак компанія видалила формулювання, що стосуються “військових і воєнних дій”.
Хоча ми ще не бачили, як це вплине на реальне життя, ця зміна формулювань відбувається якраз тоді, коли військові відомства по всьому світу виявляють інтерес до використання ШІ. “З огляду на використання систем штучного інтелекту для націлювання на цивільне населення в Газі, це важливий момент для прийняття рішення про вилучення слів “військові та військові дії” з політики дозволеного використання OpenAI”, – сказала виданню Сара Майерс Уест, керуючий директор AI Now Institute, в інтерв’ю.
Пряма згадка про “військову сферу” в переліку заборонених сфер використання вказувала на те, що OpenAI не зможе працювати з такими державними установами, як Міністерство оборони, яке зазвичай пропонує підрядникам вигідні угоди. На даний момент компанія не має продукту, який міг би безпосередньо вбити або завдати фізичної шкоди будь-кому. Але, як зазначає The Intercept, її технологія може бути використана для таких завдань, як написання коду та обробка замовлень на закупівлю речей, які можуть бути використані для вбивства людей.
Відповідаючи на запитання про зміну формулювання політики, представник OpenAI Ніко Фелікс сказав виданню, що компанія “прагнула створити набір універсальних принципів, які легко запам’ятати та застосувати, особливо з огляду на те, що наші інструменти тепер використовуються в усьому світі звичайними користувачами, які тепер також можуть створювати GPT”. Фелікс пояснив, що “такий принцип, як “Не нашкодь іншим”, є широким, але легко зрозумілим і актуальним у багатьох контекстах”, додавши, що OpenAI “конкретно наводить зброю і поранення інших як наочні приклади”. Однак, як повідомляється, речник компанії відмовився уточнити, чи включає заборона на використання її технології для “заподіяння шкоди” іншим усі види військового використання за межами розробки зброї.
У заяві для Engadget представник OpenAI сказав: “Наша політика не дозволяє використовувати наші інструменти для заподіяння шкоди людям, розробки зброї, стеження за комунікаціями, нанесення тілесних ушкоджень іншим людям або знищення майна. Однак існують випадки використання в інтересах національної безпеки, які відповідають нашій місії. Наприклад, ми вже працюємо з DARPA над створенням нових інструментів кібербезпеки для захисту програмного забезпечення з відкритим кодом, від якого залежить критична інфраструктура та промисловість. Було незрозуміло, чи були б ці корисні випадки використання дозволені в рамках “військової” політики в нашій попередній політиці. Тому мета нашого оновлення політики полягає в тому, щоб забезпечити ясність і можливість вести ці дискусії”.
Читайте також: