Рынок доставки еды сталкивается с новой проблемой, которая ещё пару лет назад казалась фантастикой.
Пользователи прикладывают к обращению реалистичные фото «испорченного блюда» — хотя снимок создан нейросетью. Сгенерированная «испорченная пицца» или «подгоревший бургер» зачастую выглядит настолько правдоподобно, что оператор поддержки не видит подвоха.
Сегодня в крупных компаниях до 7–12% спорных обращений требуют повторной проверки именно из-за подозрений в подмене изображения. Для служб доставки это прямые расходы: повторная отправка блюда, компенсации, потерянные продукты, рост нагрузки на операторов и репутационные риски.
Чтобы разобраться в этой теме без паники и сенсаций, журналисты пригласили нашу команду на съёмки программы. В эфире мы рассказали, как современные модели компьютерного зрения могут выявлять поддельные фото — и почему это становится необходимостью для всего рынка пищевой доставки.
Почему поддельные фото стали проблемой именно сейчас
Нейросети научились создавать изображения, которые:
- повторяют типичные ошибки смартфонной съёмки;
- реалистично воспроизводят текстуру еды — сыр, тесто, соусы;
- подделывают «натуральные» артефакты: шум, высокие ISO;
- имитируют композицию настоящих жалобных фото.
Для операторов поддержи это превращается в сложную задачу: человек устает, внимание снижается, нагрузка растёт — и принять подделку за реальную жалобу становится легче.
В пересчёте на обороты крупных сетей даже 1% необоснованных компенсаций — это миллионы рублей ежегодных потерь.
Как ИИ распознаёт поддельные изображения с едой
В программе мы рассказали, какие признаки видит модель, даже если человек их не замечает.
1. Текстуры и микродетали
Генераторы «спотыкаются» на хаотичных поверхностях: структура мяса, пузыри теста, плавление сыра — всё это под микроскопом выглядит иначе, чем на реальных фото.
2. Свет и тени
Искусственные изображения часто нарушают физику освещения: тень лишняя, отражение слишком ровное, углы подсветки неестественные.
3. Повторяющиеся элементы
Генераторы любят дублировать фрагменты — крошки, пятна, волокна. Алгоритм это заметит, человек — нет.
4. «Сглаживание» и шум
У ИИ есть характерный артефакт — цифровая гладкость, которая выдаёт отсутствие реального сенсора камеры.
5. Метаданные
Некоторые модели подделывают EXIF плохо: несовпадение времени, устройства, шага диафрагмы.
Эти признаки позволяют автоматически фильтровать подозрительные изображения ещё до того, как оператор откроет обращение.
Почему это важно для бизнеса доставки
Для сервиса доставки подменённые фото — это:
- дополнительные затраты на компенсации;
- рост времени обработки обращений;
- ловушка для SLA и NPS;
- возможность массовых злоупотреблений.
ИИ встраивается в цепочку модерации так, чтобы оператор тратил меньше времени на спорные обращения, а мошенничество отсеивалось автоматически.
Проблема поддельных фото еды — это лишь первый сигнал. Генеративные модели уже меняют пользовательское поведение, а значит, сервисам доставки, маркетплейсам и e-commerce нужно заранее выстраивать защиту.
Если ваш бизнес зависит от пользовательских изображений (жалобы, возвраты, модерация, контроль качества) — ИИ может снизить издержки и убрать мошенничество ещё до того, как оно станет массовым.
