Создатели сервиса DeepNude, который при помощи искусственного интеллекта лишал одежды людей, изображенных на загружаемых фото, решили закрыть проект через несколько дней после анонса запуска, пишет Российская газета со ссылкой на Twitter разработчиков.
По словам создателей DeepNude, «если 500 тыс. людей воспользовались приложением, то вероятность некорректного использования становится слишком высокой». Разработчики подчеркнули, что не рассчитывали на вирусный эффект сервиса — в их планы входила лишь продажа определенного количества копий в месяц.
«Мы не хотим зарабатывать таким способом. Конечно, копии DeepNude появятся в сети, но не мы занимаемся их продажей. Сейчас мы не выпускаем новые версии и никому не разрешаем их использовать, — говорится в сообщении. — Мир еще не готов к DeepNude».
Сервис DeepNude был запущен 23 июня и мгновенно стал популярным благодаря возможности «снимать одежду» с людей на фотографиях. При этом искусственный интеллект не способен работать с изображениями мужчин.