足球竞彩网_365bet体育在线投注-【中国科学院】

图片

图片

Projects

Wiss-KKI: Wissenschaftskommunikation über und mit kommunikativer künstlicher Intelligenz: Emotionen, Engagement, Effekte

Seed Funding UAU Project

?

Runtime: 01/2024-12/2026

Role: Principal Investigator, Co-author Proposal

Partners: University of Augsburg, TUM, TU Braunschweig

?

Dieses Projekt widmet sich der Rolle kommunikativer ku?nstlicher Intelligenz (KKI) in der Wissenschaftskommunikation. Diese Technologie fu?hrt Aufgaben in Kommunikationsprozessen aus, die ehedem als genuin menschliche Aktivita?t wahrgenommen wurden (z.B ChatGPT). KKI hat eine Doppelrolle als Vermittler/Kommunikator u?ber sozio-wissenschaftliche Themen und als Gegenstand der Wissenschaftskommunikation, etwa in der Medienberichterstattung.
Das Projekt hat zum Ziel, das Potential von KKI fu?r Wissenschaftskommunikation in dieser Doppelrolle in einem interdisziplina?ren Verbund zwischen Kommunikationswissenschaft und Informatik systematisch zu untersuchen. In einer konzeptionellen Phase sollen zuna?chst Zielgro??en fu?r Wissenschaftskommunikation u?ber und mit KKI bestimmt werden. In einer darauffolgenden empirischen Phase wird (1) der Diskurs in traditionellen und sozialen Medien mit einer Verschra?nkung manueller und automatisierter Verfahren analysiert, (2) der Effekt des medialen Diskurses auf Emotionen und Bewertungen der Technologie in experimentellen Designs untersucht, und (3) das Engagement (Ausma? und Qualita?t der Interaktion von User:innen mit KKI-Tools fu?r Wissenschaftskommunikation) in einer Kombination von qualitativen und quantitativen Methoden exploriert. Dabei wird angenommen, dass Diskurs, Praktiken und Effekte eine fu?r Wahrnehmung und Nutzung bedeutende emotionale Komponente haben. Schlie?lich wird in einem technischen Teil ein Anforderungsprofil an ein KKI-Tool fu?r Wissenschaftskommunikation erstellt und ein KKI-basiertes Tool fu?r die direkte Kommunikation zwischen Wissenschaft und O?ffentlichkeit entwickelt. Dieses ermo?glicht es Wissenschaftler:innen, aus Publikationen leicht versta?ndliche, zielgruppenspezifische Pressemitteilungen und Social Media Posts zu erstellen. Zugleich soll das Tool auch von Laien genutzt werden ko?nnen, um sich mit Themen der Wissenschaft auseinanderzusetzen. Die technische Entwicklung wird von einer formativen Evaluation begleitet.

?

?

?

COHYPERA: Computed hyperspectral perfusion assessment

Seed Funding UAU Project

?

Runtime: 24 months

?

Over the last years, imaging photoplethysmography (iPPG) has been attracting immense interest. iPPG assesses the cutaneous perfusion by exploiting subtle color variations from videos. Common procedures use RGB cameras and employ the green channel or rely on a linear combination of RGB to extract physiological information. iPPG can capture multiple parameters such as heart rate (HR), heart rate variability (HRV), oxygen saturation, blood pressure, venous pulsation and strength as well as spatial distribution of cutaneous perfusion. Its highly convenient usage and a wide range of possible applications, e.g. patient monitoring, using skin perfusion as early risk score and assessment of lesions, make iPPG a diagnostic mean with immense potential. Under real -world conditions, however, iPPG is prone to errors. Particularly regarding analyses beyond HR, the number of published works is limited, proposed algorithms are immature, basic mechanisms are not completely understood and iPPG’s potential is far from being exploited. We hypothesize that hyperspectral (HS) reconstruction by artificial intelligence (AI) methods can fundamentally improve iPPG and extend its applicability. HS reconstruction refers to the estimation of HS images from RGB images. The technique has recently gained much attention but is not common to iPPG. COHYPERA aims to prove the potential of HS reconstruction as universal processing step for iPPG. The pursued approach takes advantage of the fact that the HS reconstruction can incorporate knowledge and training data to yield a high dimensional data representation, which enables various analyses.

?

?

?

Noise Embeddings within a Hearing Aid Tailored Deep Learning Noise Suppression Framework

Noise Embeddings within a Hearing Aid Tailored Deep Learning? Noise Suppression Framework


Runtime: 12 Months


Partner: Sivantos GmbH, Erlangen

?

?

The overall goal of this project is to develop a Noise Suppression Framework for hearing aids, which can be extended by so called “embeddings” to allow a certain modification of the noise reduction behavior without re-training of the overall system. In doing so, typical hearing aid requirements like the preservation of the desired speech, the overall delay of the system, and certain aspects of flexible parameterization (e.g. with respect to the amount of noise reduction should be considered.

SHIFT

SHIFT: MetamorphoSis of cultural Heritage Into augmented hypermedia assets For enhanced accessibiliTy and inclusion (#101060660)

?

EU Horizon 2020 Research & Innovation Action (RIA)

?

Runtime: 01.10.2022?–?30.09.2025

Partners: ?Software Imagination & Vision, Foundation for Research and Technology, Massive Dynamic, Audeering, University of Augsburg, Queen Mary University of London, Magyar Nemzeti Mu?zeum – Semmelweis Orvosto?rte?neti Mu?zeum, The National Association of Public Librarians and Libraries in Romania, Staatliche Museen zu Berlin – Preu?ischer Kulturbesitz, The Balkan Museum Network, Initiative For Heritage Conservation, Eticas Research and Consulting, German Federation of the Blind and Partially Sighted

?

The SHIFT project is strategically conceived to deliver a set of technological tools, loosely coupled that offers cultural heritage institutions the necessary impetus to stimulate growth, and embrace the latest innovations in artificial intelligence, machine learning, multi-modal data processing, digital content transformation methodologies, semantic representation, linguistic analysis of historical records, and the use of haptics interfaces to effectively and efficiently communicate new experiences to all citizens (including people with disabilities).

?

?

?

ForDigitHealth

Bayerischer Forschungsverbund zum gesunden Umgang mit digitalen Technologien und Medien
BayFOR (Bayerisches Staatsministerium für Wissenschaft und Kunst) Project

?

Partners: University of Augsburg, Otto-Friedrichs-University Bamberg, FAU Erlangen-Nuremberg, LMU Munich, JMU Würzburg

?

Runtime 2019-2023 (48 Months) ??

?

Die Digitalisierung führt zu grundlegenden Ver?nderungen unserer Gesellschaft und unseres individuellen Lebens. Dies birgt Chancen und Risiken für unsere Gesundheit. Zum Teil führt unser Umgang mit digitalen Technologien und Medien zu negativem Stress (Distress), Burnout, Depression und weiteren gesundheitlichen Beeintr?chtigungen. Demgegenüber kann Stress auch eine positive, anregende Wirkung haben (Eustress), die es zu f?rdern gilt. Die Technikgestaltung ist weit fortgeschritten, sodass digitale Technologien und Medien dank zunehmender künstlicher Intelligenz, Adaptivit?t und Interaktivit?t die Gesundheit ihrer menschlichen Nutzerinnen und Nutzer bewahren und f?rdern k?nnen. Ziel des Forschungsverbunds?ForDigitHealth?ist es, die?Gesundheitseffekte?der?zunehmenden Pr?senz und intensivierten Nutzung digitaler Technologien?und Medien – speziell in Hinblick auf die Entstehung von digitalem Distress und Eustress und deren Folgen – in ihrer Vielgestaltigkeit wissenschaftlich zu durchdringen sowie?Pr?ventions- und Interventionsoptionen zu erarbeiten und zu evaluieren. Dadurch soll der?Forschungsverbund?zu einem angemessenen, bewussten und gesundheitsf?rderlichen individuellen wie kollektiven Umgang mit digitalen Technologien und Medien beitragen.

?

?

Vergangene Projekte

Hier finden Sie eine ?bersicht über vergangene Projekte.?

Search