Какотличитьфейковыеиспорченнойфотоеды:чтомырассказалинаТВораспознаванииИИ-подделок

Нейросети научились подделывать фото «испорченных» блюд так, что отличить фейк становится непросто. Нас пригласили на ТВ в качестве эксперта, чтобы мы рассказали, какие признаки выдают подделку и почему эта тема актуальна для сервисов доставки.

neurocore-ТВ-эксперты-сюжет-о-фейковой-испорченной-еде.jpg

Рынок доставки еды сталкивается с новой проблемой, которая ещё пару лет назад казалась фантастикой.

Пользователи прикладывают к обращению реалистичные фото «испорченного блюда» — хотя снимок создан нейросетью. Сгенерированная «испорченная пицца» или «подгоревший бургер» зачастую выглядит настолько правдоподобно, что оператор поддержки не видит подвоха.

Сегодня в крупных компаниях до 7–12% спорных обращений требуют повторной проверки именно из-за подозрений в подмене изображения. Для служб доставки это прямые расходы: повторная отправка блюда, компенсации, потерянные продукты, рост нагрузки на операторов и репутационные риски.

Чтобы разобраться в этой теме без паники и сенсаций, журналисты пригласили нашу команду на съёмки программы. В эфире мы рассказали, как современные модели компьютерного зрения могут выявлять поддельные фото — и почему это становится необходимостью для всего рынка пищевой доставки.

Почему поддельные фото стали проблемой именно сейчас

Нейросети научились создавать изображения, которые:

  • повторяют типичные ошибки смартфонной съёмки;
  • реалистично воспроизводят текстуру еды — сыр, тесто, соусы;
  • подделывают «натуральные» артефакты: шум, высокие ISO;
  • имитируют композицию настоящих жалобных фото.

Для операторов поддержи это превращается в сложную задачу: человек устает, внимание снижается, нагрузка растёт — и принять подделку за реальную жалобу становится легче.

В пересчёте на обороты крупных сетей даже 1% необоснованных компенсаций — это миллионы рублей ежегодных потерь.

Как ИИ распознаёт поддельные изображения с едой

В программе мы рассказали, какие признаки видит модель, даже если человек их не замечает.

1. Текстуры и микродетали
Генераторы «спотыкаются» на хаотичных поверхностях: структура мяса, пузыри теста, плавление сыра — всё это под микроскопом выглядит иначе, чем на реальных фото.

2. Свет и тени
Искусственные изображения часто нарушают физику освещения: тень лишняя, отражение слишком ровное, углы подсветки неестественные.

3. Повторяющиеся элементы
Генераторы любят дублировать фрагменты — крошки, пятна, волокна. Алгоритм это заметит, человек — нет.

4. «Сглаживание» и шум
У ИИ есть характерный артефакт — цифровая гладкость, которая выдаёт отсутствие реального сенсора камеры.

5. Метаданные
Некоторые модели подделывают EXIF плохо: несовпадение времени, устройства, шага диафрагмы.
Эти признаки позволяют автоматически фильтровать подозрительные изображения ещё до того, как оператор откроет обращение.

Почему это важно для бизнеса доставки

Для сервиса доставки подменённые фото — это:

  • дополнительные затраты на компенсации;
  • рост времени обработки обращений;
  • ловушка для SLA и NPS;
  • возможность массовых злоупотреблений.

ИИ встраивается в цепочку модерации так, чтобы оператор тратил меньше времени на спорные обращения, а мошенничество отсеивалось автоматически.


Проблема поддельных фото еды — это лишь первый сигнал. Генеративные модели уже меняют пользовательское поведение, а значит, сервисам доставки, маркетплейсам и e-commerce нужно заранее выстраивать защиту.
Если ваш бизнес зависит от пользовательских изображений (жалобы, возвраты, модерация, контроль качества) — ИИ может снизить издержки и убрать мошенничество ещё до того, как оно станет массовым.

Мы в NeuroCore предлагаем реальные рабочие решения для HoReCa:

Наши решения | Наши кейсы | Наш опыт

Читайтетакже

Item 1 of 4

Создадим проект мечты вместе

Напишите нам в Telegram о подробностях вашего проекта, и мы проведем бесплатную консультацию по автоматизации вашего бизнеса