Das Problem mit Aufmerksamkeitsmetriken: Was KI-Videoanalyse sichtbar macht
Seit Jahren wird Video-Werbung anhand eines einzigen Indikators gemessen: ob jemand zugeschaut hat. View-through-Rate, durchschnittliche Betrachtungsdauer, Abschlussrate - diese Kennzahlen bestätigen, dass Augen auf dem Bildschirm waren. Was das Gehirn dabei gemacht hat, sagen sie nicht.
Jemand kann 30 Sekunden lang zuschauen und danach nichts Relevantes erinnern. Oder vier Sekunden einer Szene reichen aus, um eine starke Erinnerung zu hinterlassen. Dieser Unterschied zeigt sich nicht im Analytics-Dashboard. Er entsteht tief im Gehirn - im visuellen Kortex, in den Hörzentren, in den Gedächtnis- und Emotionsbereichen, die am Ende darüber entscheiden, ob deine Botschaft wirklich landet.
Genau diese Lücke zwischen dem, was jemand schaut, und dem, was im Kopf bleibt, ist das zentrale ungelöste Problem im Video-Marketing. Und der Grund, warum A/B-Tests dir fast nie erklären können, warum ein Creative besser performt als ein anderes.
Was TRIBE v2 tatsächlich macht
TRIBE v2 ist ein neuronales Kodierungsmodell, das bei Meta AI Research entwickelt wurde. Trainiert auf fMRT-Daten von über 700 Probanden, die echte Videos gesehen haben, hat das Modell in sehr feiner Auflösung gelernt, wie visuelle und auditive Signale auf Aktivierungsmuster im Gehirn einzahlen.
Wenn du ein Video auf app.publicimpact.ai hochlädst, analysiert das Modell jeden einzelnen Frame. Es extrahiert Audio- und Bildmerkmale und verarbeitet sie über dieselben Kodierungsmechanismen, die aus echten Gehirnscans gelernt wurden. Das Ergebnis sind vorhergesagte BOLD-Signale (Blood-Oxygen-Level-Dependent) über 20.000 kortikale Messpunkte - dieselben Signale, die ein Neurowissenschaftler im fMRT-Scanner messen würde. Allerdings liegen die Ergebnisse hier in Sekundenschnelle vor - nicht erst nach stundenlangen Laboranalysen.
Die sechs Gehirnregionen, die für Marketing zählen
Das Tool fasst die kortikalen Vorhersagen in sechs Bereiche zusammen, die sich direkt für Creative-Entscheidungen nutzen lassen:
Wie die Analyse im Detail abläuft
Einfach ein Video auf app.publicimpact.ai hochladen - der Rest läuft automatisch auf einer A100-GPU:
Was KI-Videoanalyse für deine Creative-Entscheidungen bedeutet
Nehmen wir einen konkreten Fall: einen 60-Sekunden-Markenfilm. Klassische Metriken sagen dir, wie lange die Leute zugeschaut haben und wo sie abgebrochen sind. Die neuronale Analyse stellt dir die Fragen, die wirklich zählen: Springt die Gedächtnisregion an, als dein Sprecher bei Sekunde 38 zum ersten Mal den Markennamen nennt? Aktiviert sich die Emotionsregion, wenn das Produkt bei Sekunde 52 ins Bild kommt? Und beim Call-to-Action: Steigt das präfrontale Engagement noch einmal an - oder ist die Aufmerksamkeit des Zuschauers da längst aufgebraucht?
Das sind die Fragen, die darüber entscheiden, ob ein Video konvertiert. Klickzahlen geben keine Antwort darauf. Die bekommst du nur, wenn du verstehst, was im Gehirn des Zuschauers tatsächlich passiert.
Warum das erst jetzt möglich ist
Zwei Dinge haben sich in den letzten 18 Monaten verändert. Erstens hat die TRIBE v2-Forschung bei Meta einen Reifegrad erreicht, bei dem neuronale Vorhersagen über verschiedene Probanden hinweg präzise genug sind, um außerhalb des Labors wirklich nützlich zu sein. Die Algonauts-2025-Ergebnisse haben das bestätigt: TRIBE v2-Vorhersagen korrelieren stark mit echten Hirnmessungen - sogar bei Probanden, die nicht im Training waren.
Zweitens sind die Kosten für GPU-Berechnungen stark gefallen. Eine Analyse dieser Art pro Video ist heute kommerziell machbar. Die gesamte Pipeline läuft auf einer einzigen A100-GPU in drei bis fünf Minuten. Noch vor einem Jahr hätte dieselbe Rechenleistung einen dedizierten Cluster und ein sechsstelliges Budget vorausgesetzt.
Eine Fähigkeit, die bisher nur in Forschungslaboren existierte, steht heute jedem offen - mit einer Video-Datei und einem Browser.
So setzt du es konkret ein
- Creative-Tests vor dem Launch: Lade zwei Versionen einer Anzeige hoch, bevor du Budget einsetzt. Vergleich die Emotions- und Gedächtnisaktivierung über den gesamten Zeitverlauf. Die Version mit stärkerer Aktivierung an Marken- und CTA-Momenten wird im Markt besser abschneiden.
- Schnittwahl: Wenn du zwischen verschiedenen Schnittversionen wählst, zeigt dir die neuronale Analyse, welche an den entscheidenden Momenten stärker zieht - nicht was eine Fokusgruppe gerade bevorzugt.
- Bestandsanalyse: Lade deine vorhandenen Videos hoch. Schau, welche echte emotionale Erinnerungen hinterlassen haben - und welche nur Aufmerksamkeit erzeugt haben, ohne wirklich zu wirken.
- Skriptoptimierung: Schau dir die Sprach-ROI-Kurve an und sieh, welche Sätze deiner Narration das Gehirn wirklich verarbeitet - und welche einfach durchrauschen.
app.publicimpact.ai ist live. Lade einfach eine Video-Datei hoch. Beim ersten Mal dauert der Start rund drei Minuten, weil die GPU erst hochfahren muss. Danach geht es schneller. Du bekommst die vollständigen ROI-Zeitkurven, die Glass-Brain-Heatmaps, die Transkriptsynchronisierung und die GPT-4o-Auswertung mit konkreten Empfehlungen.