Kann ein Computer Ekel, Freude und Liebe empfinden? Die Uni-Düsseldorf hat in diesem Bereich geforscht:
Künstliche Intelligenz findet vor allem im Bereich der Text- und Themenerkennung statt. Ein Computer kann mithilfe von linguistischen Algorithmen beispielsweise erkennen, ob eine Bewertung in Social Media negativ oder positiv ist. Auch ist es im sogenannten „Topic Detection“-Verfahren möglich Pressebeiträge automatisch zu bestimmten Themen zuzuordnen. Doch wie sieht es mit Videos aus – und vor allem: Wie kann ein Computer automatisch erkennen, ob ein Video Gefühle wie Freude, Liebe, Ekel und Sehnsucht auslöst? Mit dieser Frage hat sich das Institut für Sprache und Information in der Abteilung Informationswissenschaft an der Universität Düsseldorf im Rahmen ihrer Forschungsreihe „Indexieren von Emotionen“ verfasst und ein Ergebnis geliefert. Veröffentlicht wurden die Forschungsergebnisse im Wissenschaftsmagazin „Information, Wissenschaft & Praxis“ in der Ausgabe Heft Nr. 4/2010.
Das Forschungsergebniss kann hier downgeloadet werden:
Autoren: Kathrin Knautz, Evelyn Dröge, Susanne Finkelmeyer, Daniel Guschauski, Kerstin Juchem, Cynthia Krzmyk, Daniel Miskovic, Jan Schiefer, William Sen, Julia Verbina, Nils Werner und Wolfgang G. Stock
Herausgeber: Heinrich-Heine-Universität Düsseldorf, Institut für Sprache und Information / Abt. Informationswissenschaft, Universitätsstr. 1, D-40225 Düsseldorf
Abstract: Indexieren von Emotionen bei Videos Gegenstand der empirischen Forschungsarbeit sind dargestellte wie empfundene Gefühle bei Videos. Sind Nutzer in der Lage, solche Gefühle derart konsistent zu erschließen, dass man deren Angaben für ein emotionales Videoretrieval gebrauchen kann? Wir arbeiten mit einem kontrollierten Vokabular für neun Emotionen (Liebe, Freude, Spaß, Überraschung, Sehnsucht, Trauer, Ärger, Ekel und Angst), einem Schieberegler zur Einstellung der jeweiligen Intensität des Gefühls und mit dem Ansatz der broad Folksonomy, lassen also unterschiedliche Nutzer die Videos taggen. Versuchspersonen bekamen insgesamt 20 Videos (bearbeitete Filme aus YouTube) vorgelegt, deren Emotionen sie indexieren sollten. Wir erhielten Angaben von 776 Probanden und entsprechend 279.360 Schiebereglereinstellungen. Die Konsistenz der Nutzervoten ist sehr hoch; die Tags führen zu stabilen Verteilungen der Emotionen für die einzelnen Videos. Die endgültige Form der Verteilungen wird schon bei relativ wenigen Nutzern (unter 100) erreicht. Es ist möglich, im Sinne der Power Tags die jeweils für ein Dokument zentralen Gefühle (soweit überhaupt vorhanden) zu separieren und für das emotionale Information Retrieval (EmIR) aufzubereiten.
English Title: Indexing of Emotions in Videos
English Abstract: Object of our empirical research study are depicted and provoked emotions in videos. Are users able to index such emotions consistently? Are the users‘ votes usable for emotional video retrieval? We worked with a controlled vocabulary for nine basic emotions (love, happiness, enjoyment, surprise, desire, sadness, anger, disgust, and fear), a scroll bar for adjusting the emotions‘ intensities, and the approach of broad folksonomies. Different users tagged the same videos. The test persons had the task to index the emotions of 20 videos (reprocessed movies from YouTube). We got data from 776 participants and could analyze all in all 279,360 scroll bar values. The consistency of the users‘ votes is very high; there are stable tag distributions for the emotions of the particular videos. The final shape of the distributions will be reached by the tagging activities of only few users (less than 100). Applying the approach of power tags it is possible to separate the pivotal emotions of every document – if there is any feeling at all. Those documentspecific emotions establish the basis of an emotional information retrieval (EmIR) system.