Пользователи нашли у iPhone сексистскую функцию

Сразу несколько пользователей Твиттер увидели, что гаджеты, работающие под управлением iOS 10 и iOS 11, умеют определять на снимках не только лишь лица, кошек и собак, однако и субъекты нижнего белья. Так, кроме уже упомянутого «лифчика» в списке главных слов также можно найти наименования и остальных предметов женского белья, например, «корсет» и «пояс». Репортеры увидели, что в папку также могут попадать фото в нижнем белье, а время от времени в нее попадает и что-то совсем неимоверное и не соответствующее. Поиск работает и по русскоязычному запросу. Также данная категория не появится, ежели ввести в поиск слова «нижнее белье». Однако при всем этом фотографии женщин в купальниках программа не распознаёт. Quartz подчеркнул, что отключить эту функцию нельзя. Например, в дополнении «Google Фото» можно найти папки «бюстгальтер», «нижнее белье» и «трусы».

Кстати, подобная функция есть и в андроид, система также способна сортировать «горячие» фотографии в соответствующие подгруппы.

Функция, которая группирует фото, появилась в айфонах в следующем году.

Как отмечает «Российская газета», в целом машинное обучение использует не менее четырех тыс. главных слов, позволяющих отнести кадры к тем либо другим категориям. При всем этом нет отдельной категории с мужским бельем. Также есть «Коты», «Собаки» и «Еда».