足球竞彩网_365bet体育在线投注-【中国科学院】

图片

图片

Tobias Hallmen M.Sc.

Wissenschaftlicher Mitarbeiter
Lehrstuhl für Menschzentrierte Künstliche Intelligenz
Telefon: +49 821 598 2322
Fax: +49 821 598 2349
E-Mail:
Raum: 2016 (N)
Sprechzeiten: Nach Vereinbarung
Adresse: Universit?tsstra?e 6a, 86159 Augsburg

Forschungsinteressen

Ich führe Gespr?chsanalysen multimodal (Audio, Video, Text) mit Hilfe von Methoden aus dem Bereich des maschinellen Lernens und künstlicher Intelligenz (KI) durch. Dabei untersuche ich, ob und wie man mit diesen Methoden verschiedene Gespr?chssituationen auswerten und bewerten kann.

Die Gespr?che finden im Kontext von Psychotherapiesitzungen (Projekt TherapAI), Humanmediziner- und Lehrerausbildung (Projekt KodiLL) statt. Das Ziel ist es, Zusammenh?nge zu finden und diese zu nutzen, um die Qualit?t dieser Gespr?che messbar und (automatisiert) bewertbar zu machen, sowie langfristig zu verbessern. Dies kommt beiden Seiten zu Gute - den Therapeuten/Medizinern/Lehrern sowie den Patienten/Eltern.

So ist es denkbar, dass man gefundene Merkmale nutzt um bei Therapien zu intervenieren, oder in der Ausbildung KI-gestützte Rückmeldungen und Handlungsempfehlungen den Studenten gibt, um zukünftig bessere Gespr?che zu führen.

?

Abschlussarbeiten

Hier sind Themen, die ich mir als Abschlussarbeit vorstelle. Bestenfalls werden die Ergebnisse als Modul für Nova implementiert - dadurch ist eine einfache Wiederverwendung gegeben, und man kann die unterschiedlichen Merkmale auf bestehenden Datens?tzen einfach in Zusammenhang bringen und Auswerten. Gerne k?nnt ihr auch eigene thematisch passende Vorschl?ge einbringen:

  • Sprechereinteilung: Oftmals gibt es keine nach Sprecher getrennten Audioaufnahmen, oder falls doch, h?rt man auch die anderen Sprecher (leiser) in der eigenen Aufnahme. Dies verf?lscht die Zuordnung von audiobasierten Merkmalen, z.B. die Transkription oder Emotionserkennung.
    Bestehende Verfahren nutzen hier rein Audio - hier w?re es denkbar diese Modalit?t um Video oder Text oder andere abgeleiteten Merkmale (Gesichtspunkte)?zu erg?nzen und so die Sprechereinteilung zu verbessern.
  • Rezeptionssignale: W?hrend jemand spricht, geben üblicherweise die Zuh?rer Rezeptionssignale von sich (ja, mhm, Kopfnicken, usw.). Diese sind Hinweise, ob und wie sehr jemand am Gespr?ch beteiligt ist. Hier gilt es bestehende Methoden?zu implementieren, zu verbessern, und zu evaluieren.
  • Fern-Photoplethysmographie: ?blicherweise tragen die gefilmten Personen keine Sensoren an sich, trotzdem w?ren einige Werte interessant, bspw. die "Manschettenfreie Blutdruckmessung" über Video um Herzrate und Variabilit?t zu ermitteln. Diese k?nnen Anzeichen für Aufgeregtheit im Gespr?ch?und nützlich für?Auswertungen sein.

  • Sprachmodelle als Experte: K?nnen (kleine) Sprachmodelle aufw?ndige Annotations- und Beurteilungsarbeit Menschen abnehmen, oder mindestens unterstützen? Wegen sensibler Daten müssen diese Modelle lokal ausführbar sein, bestenfalls auf Endverbraucherhartware.

  • Sprachmodelle als ?bungspartner: Sprachmodelle werden gerne zur synthetischen Datengenerierung genutzt. Kann man diese auch (lokal) als sinnvollen ?bungspartner einsetzen?um Elterngespr?che auf verschiedenen Schwierigkeitsgraden zu üben?

Publikationsliste

2024 | 2023

2024

Moritz Bauermann, Kathrin Gietl, Tobias Hallmen and Karoline Hillesheim. 2024. KI in Beratungsgespr?chen: Zukunft der Kommunikation [Abstract].
PDF | BibTeX | RIS | URL

Moritz Bauermann, Kathrin Gietl, Karoline Hillesheim, Tobias Hallmen and Andreas Hartinger. 2024. KI-basiertes Feedback für simulierte Elterngespr?che: eine qualitative Analyse studentischer Wahrnehmung und Gestaltungsperspektiven – KI-WaGen [Abstract].
PDF | BibTeX | RIS | URL

Moritz Bauermann, Ann-Kathrin Schindler, Tobias Hallmen, Miriam Kunz, Elisabeth André and Thomas Rotthoff. 2024. Studienprotokoll: "AI Effect – Untersuchung der lernwirksamen Annahme von KI-generierten und durch Avatare vermittelten Feedback und Feedforward zur ?rztlichen Kommunikation bei Medizinstudierenden in einer Simulationsumgebung" [Abstract].
PDF | BibTeX | RIS | URL

Daksitha Senel Withanage Don, Dominik Schiller, Tobias Hallmen, Silvan Mertes, Tobias Baur, Florian Lingenfelser, Mitho Müller, Lea Kaubisch, Corinna Reck and Elisabeth André. 2024. Towards automated annotation of infant-caregiver engagement phases with multimodal foundation models. DOI: 10.1145/3678957.3685704
PDF | BibTeX | RIS | DOI

2023

Tobias Hallmen, Silvan Mertes, Dominik Schiller, Florian Lingenfelser and Elisabeth André. 2023. Phoneme-based multi-task assessment of?affective vocal bursts. DOI: 10.1007/978-3-031-39059-3_14
BibTeX | RIS | DOI

Projekte

足球竞彩网_365bet体育在线投注-【中国科学院】