Wie wir ein Vision-Modell integriert haben, um illegale Beiträge auf einem E-Commerce-Marktplatz zu erkennen

Wie KI, wenn sie richtig implementiert wird, Mitarbeiter bei alltäglichen Prozessen unterstützen kann.

Kundenübersicht

Branche: E-Commerce

Unternehmensgröße: 20+ Mitarbeiter

Hauptangebot/Produkt: B2C-Marktplatz-Anbieter

Nutzer: 2+ Millionen; über 2.000 registrierte (abonnierte) Anbieter/Verkäufer

Ausgangssituation & Herausforderungen

Unser Kunde ist seit 2014 in der E-Commerce-Branche tätig und verwaltet und skaliert seine Marktplatz-Plattform erfolgreich mit Unterstützung eines engagierten internen Teams. Die Plattform bedient zwei Kategorien von Anbietern: registrierte (verifizierte) und nicht registrierte (nicht verifizierte) Anbieter. Für beide sind unterschiedliche Moderations-Workflows erforderlich.

Um die Compliance (Regeleinhaltung) zu wahren und die Integrität der Plattform zu schützen, musste jeder von nicht registrierten Anbietern eingereichte Beitrag vor der Veröffentlichung manuell überprüft werden. Parallel dazu überprüfte das Moderationsteam kontinuierlich die Inhalte von registrierten Anbietern, um die fortlaufende Einhaltung der Nutzungsbedingungen (TOS) der Plattform sicherzustellen und die Verbreitung von verbotenem oder illegalem Material zu verhindern.

Zum Zeitpunkt unserer Zusammenarbeit unterhielt der Kunde ein Team von über sieben Moderatoren, die für die manuelle Überprüfung und Freigabe von Tausenden von Beiträgen täglich verantwortlich waren – ein Prozess, der mit der Skalierung der Plattform zunehmend ressourcenintensiver geworden war.

Zentraler Problempunkt (Key Pain Point):

  1. Die extrem hohe Arbeitsbelastung, die erforderlich war, um den Marktplatz so zu pflegen, dass nur Beiträge veröffentlicht werden, die den Nutzungsbedingungen entsprechen, und gleichzeitig sicherzustellen, dass die Beiträge rechtzeitig verarbeitet werden, um nicht zu riskieren, Anbieter zu verlieren. Dies kristallisierte sich als großes Problem heraus, da die Plattform in den zwei Jahren vor unserer Zusammenarbeit ein erhebliches Wachstum verzeichnete.

Unser Ansatz & Ergriffene Maßnahmen

Analyse & Einblicke:

Um die Moderationsprozesse zu verstehen, baten wir darum, während der Verwaltungszeiten anwesend zu sein. Dort konnten wir die gesamten Abläufe (End-to-End-Operations) im Detail studieren und wurden direkt darin geschult, wie sowohl registrierte als auch nicht registrierte Anbieter verwaltet werden. Außerdem wurden uns die Nutzungsbedingungen (TOS) zur Verfügung gestellt sowie alles, was unsere Integration vom Marktplatz fernhalten sollte, um nur einige zu nennen: Bilder von Kindern, Tieren, Dokumente mit privaten Informationen (wie Sozialversicherungsnummern), Waffen, etc.

Anforderungen & Erwartungen

Das Ziel war es, den Moderationsprozess zu zentralisieren und zu rationalisieren, indem ein einheitliches Dashboard erstellt wird, auf dem alle potenziell illegalen Beiträge automatisch hervorgehoben und an einem Ort angezeigt werden. Dies ermöglichte es dem Moderationsteam, jeden markierten Beitrag effizient zu überprüfen und die entsprechende Maßnahme zu ergreifen – entweder den Beitrag zu löschen, wenn er gegen die Nutzungsbedingungen verstieß, oder ihn freizugeben, wenn er als richtlinienkonform erachtet wurde.

Parallel dazu wurde das System so konzipiert, dass es Feedback von Moderatoren zu jeder KI-generierten Markierung sammelt und angibt, ob es sich um eine korrekte oder inkorrekte Erkennung handelte. Diese Feedback-Schleife lieferte wesentliche Daten, um die Genauigkeit und Zuverlässigkeit des Erkennungsmodells des Vision Agents kontinuierlich zu verbessern.

Mit zunehmender Reife des Systems sah die nächste Phase eine Erweiterung der Automatisierungsfunktionen vor: nicht nur die Hervorhebung verdächtiger Beiträge, sondern auch die Identifizierung von Konten mit Wiederholungstätern zur potenziellen Sperrung sowie das automatische Entfernen von Beiträgen oder Bildern, bei denen mit hoher Sicherheit (confidently) ein Verstoß gegen die Richtlinien der Plattform festgestellt wurde.

Integration mit dem Gemini Vision Modell

Um dieses System zum Leben zu erwecken, haben wir Googles Gemini Vision Modell integriert, das in der Lage ist, sowohl Text- als auch Bildinhalte zu verstehen. Dies ermöglichte es unserem Moderations-Framework, Beiträge tiefgreifend zu analysieren – nicht nur basierend auf Bildunterschriften oder Titeln, sondern auch auf den tatsächlichen visuellen Elementen in den Bildern, die von den Anbietern hochgeladen wurden.

Wir haben den Workflow so gestaltet, dass jeder neue Beitrag, der von einem nicht registrierten Verkäufer eingereicht wurde, automatisch durch unsere Pipeline lief. Der Textinhalt (Titel, Beschreibung) und alle begleitenden Bilder wurden zur Auswertung an die Gemini Vision API gesendet. Das Modell gab dann eine strukturierte Antwort zurück, die den Inhalt gemäß den in Zusammenarbeit mit dem Kunden definierten Risikokategorien klassifizierte: „Genehmigt“ (Approved) oder „Abgelehnt“ (Rejected).

Um Skalierbarkeit und Präzision zu gewährleisten, optimierten wir die Erkennungslogik mithilfe einer parallelen Batch-Bildanalyse, die es ermöglichte, mehrere Bilder in einer einzigen Anfrage zu verarbeiten. Für jedes markierte Element generierte das System Konfidenzwerte (Confidence Scores) und hob die spezifischen Gründe für die Erkennung hervor (z. B. Vorhandensein von Waffen oder persönlichen Dokumenten).

Die Ergebnisse wurden dann im Dashboard für markierte Beiträge zentralisiert, wo die Mitarbeiter die KI-Ergebnisse überprüfen, Beiträge genehmigen oder löschen und Feedback geben konnten. Im Laufe der Zeit wurde diese Feedback-Schleife genutzt, um die Prompts des Modells zu verfeinern und das kontextbezogene Verständnis zu verbessern. Die Kombination aus Geminis visueller Intelligenz und unserem feedbackgesteuerten Iterationsprozess führte zu einem äußerst zuverlässigen, sich selbst verbessernden Moderationssystem, das in der Lage ist, die Einhaltung von Richtlinien im großen Maßstab bei minimalem manuellen Aufwand aufrechtzuerhalten.

Abschließende Ergebnisse & Auswirkungen (Closing Results & Impact)

Die Integration unseres Vision Model Systems transformierte den Moderations-Workflow des Kunden von einem vollständig manuellen Prozess in ein halbautomatisiertes, KI-gestütztes System, das die operative Belastung des Teams drastisch reduzierte und die Gesamtkonsistenz der Inhaltsmoderation verbesserte. Was früher ein Team von sieben Moderatoren erforderte, die rund um die Uhr arbeiteten, wurde zu einem optimierten Prozess, bei dem die KI die erste Überprüfung (Screening) übernahm, sodass sich die menschlichen Moderatoren auf strategischere und wertschöpfendere Aufgaben konzentrieren konnten.

Dieses Projekt zeigte auf, wie KI-gesteuerte Vision-Systeme – wenn sie mit strukturierten Feedback-Schleifen und menschlicher Aufsicht implementiert werden – Organisationen dabei helfen können, die perfekte Balance zwischen Effizienz und Genauigkeit zu erreichen, und letztendlich Teams befähigen, intelligenter zu arbeiten und sich auf das zu konzentrieren, was das langfristige Wachstum wirklich vorantreibt.

Teilen:

LinkedIn

Weitere Beiträge