#responsible AI - Europas Weg zum Erfolg?
uDay XXIV
Donnerstag, 21. Mai 2026 |
|
08:30 - 17:00 Uhr |
|
FHV, Gebäude A, Aula (Campusplan) |
Was erwartet dich?
Die Konferenz bietet dir die Möglichkeit, dich mit den zentralen Fragen rund um eine verantwortungsvolle KI auseinanderzusetzen: Wie kann Europas Ansatz zu #responsible Al zum Internationalen Erfolgskonzept werden - ein Modell, das Datenschutz, ethische Verantwortung und wirtschaftliche Wettbewerbsfähigkeit vereint? Und wie lässt sich echtes Vertrauen In KI-Systeme aufbauen, anstatt es nur einzufordern?
Lass uns gemeinsam den Dialog vertiefen, Wissen teilen und Wege zu einer verantwortungsvollen und wettbewerbsfähigen KI-Zukunft entwickeln.
Konferenz-Tracks
Track 1 - Von Compliance zu Wettbewerbsfähigkeit
Wie wird Regulierung zum Motor vertrauensbasierter Innovation?
Besonders willkommen: Fallstudien aus Unternehmen und Start-ups.
Track 2 - KI als rechtliche & ethische Herausforderung
Methoden, Frameworks und Governance-Ansätze für Responsible AI und Datenschutz-by-Design.
Track 3 - KI in Bildung, Kultur & Gesellschaft
Europas Werte als kreative Alternative zu datengetriebenen Modellen - und ein Blick in die Zukunft fortgeschrittener KI.
Programm
| 08:00 Uhr | Check-In |
| 08:30 Uhr |
Begrüßung & Intro |
| 08:45 Uhr |
KEYNOTE I: KI braucht Kompetenz: Perspektiven aus Bildung, Praxis und europäischen Initiativen |
| 09:30 Uhr |
KEYNOTE II: Building Digital Trust ? vom moralischen Appell zur konkreten Gestaltungsperspektive |
| 10:15 Uhr |
Poster- & Workshop-Pitches (Teaser) + Workshop-Anmeldung |
| 10:45 Uhr |
Poster-Session & Coffee (Foyer) |
| 11:15 Uhr |
Paper-Session I |
| 12:45 Uhr |
Mittag (Foyer) |
| 13:30 Uhr |
Paper-Session II |
| 15:00 Uhr |
Pause und Wechsel zu Workshops |
| 15:30 Uhr | Workshop-Session I à 50 Minuten Die Workshops sind unten näher beschrieben |
| 16:30 Uhr |
Workshop-Session II à 50 Minuten |
| ab 17:30 Uhr |
Get together im Café Campus |
- Advancing Responsible AI through Education, Research, and Societal Engagement
Salome Wagner, Peter Knees - An educator's perspective on the advantages of data protection and trustworthiness in AI in academic learning environments, with a special focus on mathematics education
Roland Gunesch - Automatisierte Messung des Energieverbrauchs von Software
Alessandro Aneggi, Andrea Janes - D2A / A3: KI als Bindeglied zwischen Mensch, Avatar und Metaversum
Peter Hoffmann - Entschlüsselung von Innovationspotenzialen der Interaktion zwischen Mensch und Generativer Künstlicher Intelligenz
Silvia Kätzler - Epistemische Resilienz statt Tool-Kompetenz: Medienbildung als zentraler Faktor der Lehrpersonenbildung
Georg Winder - KI als Werkzeug wissenschaftlicher Praxis: Future Skills an der FHV – University of Applied Sciences
Claudia Franceschini, Paul Ellersdorfer, Karin Kaltenbrunner, Edna Fitz - KI in der Forschung: Geteilte Verantwortung von Wissenschaftsakteuren, Institutionen und Gesellschaft
Katrin Paldán, Julia Reiner, Fabian Rebitzer - Recommendations Explained: Towards Transparency and Fairness for Various Stakeholders
Shahrzad Shashaani, Peter Knees - Responsible AI Mathbot
Elias Berchtold, Cengizhan Aydin, Pablo Zuder - Wie erleben Lernende das Erlernen mathematischer Kompetenzen mit einem KI-Tutor?
Adrian Bachmann, Christoph Erath - You Shall (Not) Work: Ein Stimmungsbild zur Zukunft von Arbeit durch KI
Marcus Bentele, Andreas Mittermeier, Alexander Summer, Sabrina Schneider - Die Transformation medialer Repräsentation: Evolution diskreter Codierung – Minimale Zeichenvarianz bei maximaler algorithmischer Dichte
Thomas Schroffenegger
- A Standard for Disclosing Responsible Generative AI Use in Student Work: A Framework and Checklist
Buehler Florian - Beyond the Prompt: The Rise of Agentic AI and its Implications for Responsible Cultural Education in Europe
Alexander Pfeiffer - Blessing or Burden? The EU AI Act and the Future of Forensic AI
Chantal Heubach, Max Blaschke - Edge-Privacy und Transparenz – Der Weg zu einem verantwortungsvollen KI-Tagesbegleiter
Alexander Lutz - Ethische Bildung in Zeiten der KI: Wie Schulen Europas Modell verantwortlicher KI konkret machen – und damit globale Zukunftsfähigkeit schaffen
Thomas Cavelius - Governing Generative AI in Sustainable Smart Manufacturing: Towards Responsible Industry 5.0 Ecosystems
Thomas Absmayr, Martin Dobler, Silvia Kätzler - KI braucht Kompetenz: Perspektiven aus Bildung, Praxis und europäischen Initiativen
Martin Kandlhofer - Künstliche Intelligenz in der Hochschulverwaltung: Ergebnisse einer Querschnittbefragung an Hochschulen in Baden-Württemberg
Julian Lingnau, Fulya Ay, Marius Hofmeister, Alexander Pfister - Organizational factors for responsible AI Innovation: Causal recipes for AI Innovation project set-ups
Franziska Anna Röckel, Max Blaschke, Benjamin van Giffen - Pro-human AI Design: Ein Aufruf
Thilo Stadelmann, Christoph Heitz, Rebekka von Wartburg-Kottler, Andrea Luca Schärer - Responsible AI als Herausforderung für akademischen Kompetenzerwerb
Sebastian Meisel, Filiz Lohr - SIMKI – SIMulation mit Künstlicher Intelligenz
Marie-Therese Kämpf, Lisa Guth - St.Galler KI-Kompetenzrahmen für die Bildung: Vorstellung & Diskussion
Stefanie Schallert-Vallaster, Josef Buchner, Steve Bass, Manuel Garzi, Lisa Hermann, Martin Hofmann, Maria Mannai, Samuel Müller, Charlotte Nüesch, Konstantin Papageorgiou, Georg Winder - Security and Privacy Implications of AI-Mediated Grief: An Evaluation of Commercial Griefbots
Zyyad Ali, Astrid Weiss - The “Third Path”? Re-Thinking Europe’s Role in Non-Aligned Models of AI Governance
Tobias Burgers - The EU AI Act and Data Act: Paving the way for responsible data sharing in the maritime sector?
Lenneke Sprik - “I Know You’re Not Human”: Non-Knowledge, Enlightenment, and the Limits of Social AI
Simone Broders - Von der Transparenz zum Geschäftswert: Werttreiber und Messung des multidimensionalen ROI von Explainable AI
Nicolas Hellbrück, Michael Ludwig, Tobias Greff
- AI Literacy in der Praxis: Verstehen, einordnen und vermitteln
Martin Kandlhofer - AI as an ally, teacher in control
Age Wesselius, Lynn Veldmate - Applying a Control-Accountability Alignment Framework to AI-based Health Applications
Philipp Lizat, Lena Buchberger - Human Transformers: Bias spielerisch erfahrbar machen
Cengizhan Aydin, Kilian Strasser - Responsible AI Mathebot – Algebra Schritt für Schritt
Elias Berchtold, Pablo Zuder, Cengizhan Aydin - SIMKI – SIMulation mit Künstlicher Intelligenz
Marie-Therese Kämpf, Lisa Guth - Transparent AI Research – How to Use AI Responsibly in Research
Josef Mayerhofer
Eventsprache
Deutsch, Englisch
Publikum
Eingeladen sind alle, die an der Schnittstelle von Künstlicher Intelligenz, Recht, Ethik und Innovation arbeiten: Datenwissenschaftler:innen, Jurist:innen, Ethiker:innen, Lehrende, Studierende, Kulturschaffende, Unternehmen und innovative Betriebe ebenso wie politische Entscheidungsträger:innen.
Teilnahme
- Teilnahme als Beitragende:r:
Die finalen Beiträge sind bis spätestens 30. April 2026 einzureichen. - Teilnahme als Besuchende:r:
Die Teilnahme als "Visitor" ist kostenlos - melde dich ▷ hier an.
Lehrkräfte können im Rahmen der Fortbildung über die Pädagogischen Hochschule Vorarlberg teilnehmen (mit PH Account): LV Informationen im Weiterbildungsverzeichnis der PH
Keynotes
DI Dr. Martin Kandlhofer
Senior Researcher für KI-Bildung & Educational Robotics bei der Österreichischen Computer Gesellschaft, OCG
Keynote: KI braucht Kompetenz: Perspektiven aus Bildung, Praxis und europäischen Initiativen
KI braucht Kompetenz: Perspektiven aus Bildung, Praxis und europäischen Initiativen Der Vortrag spannt den Bogen von aktuellen KI-Entwicklungen über europäische Bildungsinitiativen und Rahmenbedingungen bis hin zu konkreten Trainings- und Zertifizierungsangeboten. Im Fokus steht die Frage, was eigentlich unter AI Literacy zu verstehen ist und welchen Beitrag Bildungseinrichtungen, EU-Projekte und gemeinnützige Organisationen wie die OCG dabei leisten können.
Zur Person: Martin Kandlhofer arbeitet im Bereich Forschung und Innovation an der Österreichischen Computer Gesellschaft (OCG). Er absolvierte das Masterstudium Softwareentwicklung sowie das Doktoratsstudium Informatik an der Technischen Universität Graz. Seine Arbeit konzentriert sich auf Künstliche Intelligenz, Educational Robotics und Computational Thinking. Er ist in nationalen und internationalen Projekten tätig, unter anderem als Senior Researcher und Projektkoordinator des EU-Projekts EDLRIS, und absolvierte Forschungsaufenthalte in Irland und den USA.
Dr. Christopher Koska
Senior Researcher Center for Responsible AI Technologies und KI-Produktionsnetzwerk (Centre for Future Production), Universität Augsburg
Keynote: Building Digital Trust – vom moralischen Appell zur konkreten Gestaltungsperspektive
Trustworthy AI, Responsible AI, Human-in-the-Loop – kaum ein Diskurs über Künstliche Intelligenz kommt heute ohne diese Begriffe aus. Sie versprechen Orientierung, Sicherheit und Vertrauen in einer zunehmend automatisierten Welt. Doch bei näherem Hinsehen bleibt oft unklar, was genau damit gemeint ist – und vor allem, wie diese Versprechen praktisch eingelöst werden. Mit seinem Response & Responsibility Framework verschiebt Christopher Koska den Fokus von normativen Forderungen hin zur anwendungsorientierten Gestaltung soziotechnischer Systeme, in denen menschliche und technische Akteure gemeinsam agieren.
Zur Person: Christopher Koska arbeitet an der Schnittstelle von Wissenschaft, Technologie und Unternehmenspraxis. Seit über zehn Jahren berät er Organisationen bei der Konzeption und Umsetzung von Corporate Digital Responsibility (CDR)-Projekten. Zuvor war er als IT-Projektleiter in einem internationalen Medienunternehmen tätig und verantwortete die Entwicklung digitaler Lern-, Wissens- und Bildungsmedien. Als Senior Researcher am Center for Responsible AI Technologies koordinierte er Projekte zu KI-Assistenz in ethisch komplexen Entscheidungssituationen. Ab Februar 2026 unterstützt er mit seiner Expertise das KI-Produktionsnetzwerk (Centre for Future Production) der Universität Augsburg.
Kontakt
Die FHV setzt sich für eine nachhaltige Veranstaltungskultur ein. Diese Veranstaltung wird nach den Kriterien von „ghörig feschta“ organisiert und achtet dabei auf entsprechende Maßnahmen und bewusste Praktiken.
Details zur Veranstaltungsreihe
Der jährlich stattfindende Usability Day (uDay) ist eine internationale Tagung, die Expertinnen und Experten aus Wissenschaft und Praxis seit vielen Jahren eine bewährte Plattform bietet, um ein breites Spektrum an innovativen Lösungen und neuesten Forschungserkenntnissen zu präsentieren und zur Diskussion zu stellen. Jedes Jahr wird von einem interdisziplinären Tagungskomitee ein Thema gewählt, das einen aktuellen Bezug zu gesellschaftlichen und technischen Herausforderungen hat.