Искусственный интеллект, которым пользуется британская полиция, путает фото пустынь со снимками обнаженных тел

В полиции надеются, что через пару лет развитие технологий все-таки позволит решить эту проблему.

Сотрудники британской полиции рассказали о том, как применяют технологии искусственного интеллекта в своей работе. Они уверены, что система, которой они пользуются, уже через 2-3 года научится автоматически проверять устройства на наличие детского порно, но пока работа инструмента не совсем идеальна. Он, например, часто путает фотографии пустынь со снимками обнаженных тел, пишет Gizmodo.

Полиция использует программы на основе искусственного интеллекта для того, чтобы проверять содержимое конфискованных устройств. Инструмент ищет на смартфонах и ноутбуках фотографии наркотиков, денег, оружия — с этими задачами программа справляется хорошо. Проблемы начинаются, когда речь идет о поиске порнографических материалов. «По какой-то причине очень многие люди выбирают в качестве заставок фотографии пустынь, и искусственный интеллект принимает эти снимки за порнографию», — рассказал сотрудник полиции Марк Стоукс.

Тем не менее, говорит он, другого выхода, кроме как продолжать применять программу, нет: использовать людей для поиска детской порнографии — значит наносить им психологическую травму.

Новое и Лучшее

37 030

8 497

10 305
10 568
Больше материалов