У далекому 2015 році інженер-програміст Джекі Алсін повідомив громадськості, що алгоритми розпізнавання зображень в Google Фото працюють неправильно і класифікують афроамериканців у якості “горил”. Google же у свою чергу вибачилась за зачеплені почуття користувачів і пообіцяла виправити помилку. Але на практиці виявилося, що три роки Google нічого не робила. Компанія усього лише відключила алгоритм розпізнавання “горил”, щоб не ризикувати своєю репутацією.
Трохи пізніше надійшло повідомлення від компанії Wired. Їх зусиллями було проведено тест алгоритмів Google Фото, за допомогою завантаження на службу десятка тисяч фотографій різних приматів. Серед яких були: бабуїни, гібони, мавпи, горили і шимпанзе. Перші три категорії тварин були визначені правильно, але що ж стосується горил і шимпанзе їх ідентифікація була відсутня. Також в ході тесту було виявлено, що Google підправила ШІ щодо расистських запитів. Так наприклад при пошуку “чорної людини” або “чорної жінки” виводилися фотографії людей в чорно-білому одязі, відсортовані за статевою приналежністю.
Представник Google підтвердив результати тестів, зроблених Wired, які стосувалися категорій приматів і повідомив що вони були заблоковані. За словами представника стає зрозумілим, що технологія розпізнавання зображень далеко не ідеальна. І заблоковані категорії все ще залишаються доступними в службах Google, таких як API Cloud Vision і Google Assistant.
Може здатись дивним, що комерційна компанія-гігант Google, не придумала більш правильного вирішення цієї проблеми. Але ця помилка служить гарним нагадуванням про те, як складно навчати ШІ, коли він знаходиться у стадії розробки і не перевірений групою фахівців.
Залишається не зрозумілим, що Google буде робити надалі для поліпшення своїх алгоритмів, так як вад в них більш ніж достатньо і вони вимагають негайних заходів щодо їх усунення.
Джерело: theverge.com