Twitter використовує машинне навчання для обробки фото

TWITTER -title

Технологія машинного навчання не завжди пов'язана з великими функціями. Часто, це маленькі хитрощі, які дуже акуратно і незначно впливають на результат. Наприклад, використання Twitter нейронних мереж дозволяє автоматично вибирати для попереднього перегляду найцікавішу частину фото.

Компанія деякий час працювала над цим інструментом, але детально описала свої методи в блозі тільки вчора. ML Lucas Theis і лейбл ML Zehan Wang, пояснюють, як вони почали використовувати розпізнавання особи, щоб обрізати фон, але виявили, що цей метод не працює із зображеннями краєвидів, об'єктів і, що найважливіше, ваших улюблених котиків.

Рішенням було «обрізання з використанням значущості». Щоб визначити цей параметр, розробники використовували дані з академічних досліджень по роботі очей, які записують, на які області зображень люди дивляться в першу чергу.

«ЦІ ДАНІ МОЖУТЬ ВИКОРИСТОВУВАТИ ПРИ НАВЧАННІ нейронних мереж ТА ІНШИХ АЛГОРИТМІВ ДЛЯ ПРОГНОЗУВАННЯ ТОГО, ЩО ЛЮДИ МОЖУТЬ ЗАХОТІТИ ПОДИВИТИСЯ»

THEIS AND WANG

Як тільки розробники навчили нейронну мережу для ідентифікації цих областей, їм необхідно було оптимізувати її для роботи в реальному часі на сайті. На щастя для них, область обрізки, необхідна для попереднього перегляду фотографій, досить широка - ви тільки звужуєте зображення. Це означає, що Twitter може зменшити і спростити критерії, які оцінювала нейронна мережа, використовуючи техніку, звану «knowledge distillation».

Кінцевим результатом стала нейронна мережа, яка в десять разів швидше, ніж її оригінал. «Це дозволяє нам виконувати виявлення значущості об'єктів на всіх зображеннях, як тільки вони будуть завантажені, ми виберемо найбільш цікаву частину фото в режимі реального часу», пишуть Theis and Wang.

Нова функція вже доступна всім користувачам ПК, iOS і Android-додатків. Тому наступного разу коли ви побачите цікаву фотографію в Twitter, пам'ятайте, що це також результат роботи нейронної мережі.

Джерело: The Verge

ОСТАВЬТЕ ОТВЕТ

Добавьте комментарий
Введите ваше имя