ITeG Ringvorlesung 2025/2026

Das Wissenschaftliche Zentrum für Informationstechnikgestaltung (ITeG) der Universität Kassel veranstaltet in Zusammenarbeit mit der Gesellschaft für Informatik (GI) eine Vortragsreihe zu den vielfältigen Gestaltungsdimensionen der digitalen Gesellschaft. In dieser Reihe stellen renommierte Vertreterinnen und Vertreter verschiedener Disziplinen aus ihrer Perspektive Forschungsansätze und Ergebnisse vor zu der Herausforderung, wie wir Technik und gesellschaftliche Kontexte verantwortungsvoll gestalten können.

Mittwoch, 17:00 
ZOOM-Link

Mittwoch, 22. Oktober 2025

Beginn: 17:00 – ONLINE

Prof. Dr. Peter Purgathofer
Human Computer Interaction
TU Wien

"Das erste Kranzbergsche Gesetz"

Mittwoch, 19. November 2025

Beginn 17:00 – IN PRÄSENZ

Prof. Dr. Ekaterina Jussupow
Fachgebiet Wirtschaftsinformatik an der
TU Darmstadt

"The Indirect Disclosure Effect: How Disclosing Generative AI Use Impacts Creators' Collaboration with AI"

Mittwoch, 10. Dezember 2025

Beginn 17:00 – ONLINE

Prof. Dr. Markus Langer,
Arbeits- und Organisationspsychologie
Universität Freiburg

„Was ist effektive menschliche Aufsicht über KI?"

Mittwoch, 21. Januar 2026

Beginn 17:00

Prof. Dr. Ingo Schulz-Schaeffer,
Technik- u. Innovationssoziologie, TU Berlin

"Wie sich erlernte von designter Technik unterscheidet: Die neue Agency generativer KI und das Erfordernis der strategischen Interaktion mit ihr"

Mittwoch, 11. Februar 2026

Beginn: 17:00 – ONLINE

Prof. Dr. Philipp Hacker, LL.M (Yale)
European New School of Digital Studies,
Eur​opa-Uni Viadrina Frankfurt (Oder)

„Zwischen Halluzination und Realität:
KI-Regulierung entlang der Wertschöpfungskette“

Nä­he­re In­for­ma­tio­nen zu den ein­zel­nen Vor­trä­gen

Ein wesentlicher Antrieb für die Entwicklung von Technologien ist das Streben nach Automatisierung. Wir können rückblickend viele Entwicklungen als einen Beitrag zur Automatisierung interpretieren, bis hin zur Schrift als Automatisierung der Erinnerung. Schon von Anfang an wurden Bestrebungen zur Automatisierung aber auch kritisiert – vgl. Platons Kritik an der Schrift. In diesem Vortrag möchte ich Kriterien diskutieren, unter denen wir diese Kritik einordnen und gegebenenfalls auch bewerten können, als Handwerkzeug zur Beurteilung – und ultimativ Gestaltung – neuer Technologien. 

Peter Purgathofer is associate professor at TU Wienfaculty of informatics, at the human-computer interaction group, part of the institute of visual computing and human-centered technology. His research centers around questions of the interplay between design and (software) development, especially the role and place of design in software engineering. also, he is working in the field of »informatics and society«. Rather than anything else, he would label himself as an »experience designer« in the sense ofbill buxtons book, »sketching user experiences«. Recently, new projects focus around the concept of »positive impact games«. 
On a global level, this means that he is also deeply interested in the interplay between the co-development of technology and society, and especially in questions of sustainability and resilience of technology. He is also »autor« of a podcast, »peter purgathofer spricht mit...«. in each of the 1-2h episodes, he talks to an outstanding person about some topics from shared fields of expertise. 
He majored in informatics in vienna, and have since focussed on the issue of design within informatics. in the course of my work i founded and led the uid-lab, a cooperation with gp design partners, where we worked on numerous national and international design projects between 1996 and 2004. among the clients were ars electronica center, the cd-labor für software research and the german Sparkassen-Informatikzentrum. uid-lab has spun off into a design enterprise and is now part of gp design partners
He is (co-)winner of an award of distinction at the prix ars electronica 2000 in the category .net, together with erich bergerand volker christian (and many others) for the project telezone. Since early 2005 he is associate professor for interactive systems. His habilitation discusses history, theory and practice of design methodology, focussed on the design of interactive software. Since 2007, he is coordinator for the »media informatics« bachelor and master programs at the vienna university of technology. In 2012, he co-founded positive impact games lab together with fares kayali. Since 2016, he is member of the board of trustees at the European Forum Alpbach
see also: https://www.piglab.org/peterpurgathofer 

Text-to-image generative artificial intelligence (GenAI) systems enable creators to produce visual content through prompt-based interaction, blending human input with computational creativity. Concurrently, regulators and industry stakeholders are advancing disclosure policies that mandate transparency about GenAI involvement. While prior research has focused on how GenAI disclosure shapes audience perceptions, less is known about how anticipated disclosure affects creators’ perceptions and behaviors. Using a nested mixed-methods approach, we conducted two experiments to examine how creators interact with GenAI tools when they anticipate that judges will either learn or not learn about their GenAI use. We identify a novel indirect disclosure effect. When creators anticipate that their use of GenAI will be revealed, they reduce their creative involvement in both idea generation and execution. Specifically, they invest less effort in prompting, identify less with the result, and perceive the resulting images as a less authentic expression of themselves. This shift in the collaboration results in images perceived as more novel but less visually appealing by a judging panel. We also find some evidence that the effect of anticipating GenAI disclosure on the creative involvement is mediated by second-order beliefs, in particular, creators’ expectations that judges will perceive the image as a dishonest creative work. Interestingly, we only observe these effects on the creative process when creators know that the judging panel consists of laypeople. For an expert panel, the effects are negligibly small and statistically insignificant, hinting at a boundary condition of the novel indirect effect. Our findings underscore the socio-technical dynamics of GenAI usage and highlight how disclosure policies and the implementation of content credential technologies influence not only how creative artifacts are judged but also how they are produced. We discuss practical and societal implications for platforms and policymakers, emphasizing the need to highlight human involvement in disclosing GenAI.

Ekaterina Jussupow is an Associate Professor (W2, tenure track) in Information Systems at the Technical University of Darmstadt. With a foundation in psychology, her research explores how individuals collaborate with AI systems, emphasizing the cognitive and metacognitive processes that shape these interactions. Her work has been recognized with a Best Paper Runner-Up Award from Information Systems Research (ISR), and her dissertation earned the prestigious TARGION Award. Her research has been published in leading outlets, including Information Systems Research and MIS Quarterly.

Wenn KI-Systeme für Hochrisikoeinsatzgebiete wie der Justiz, Medizin oder in der kritischen Infrastruktur eingesetzt werden, soll menschliche Aufsicht dazu beitragen mögliche negative Konsequenzen des Einsatzes von KI vorzubeugen. Die europäische KI-Verordnung schreibt solche menschliche Aufsicht sogar gesetzlich vor und die erfolgreiche Gestaltung von menschlicher Aufsicht wird jegliche Organisation vor Herausforderungen stellen, die über den Einsatz von KI-Systemen für Hochrisikoeinsatzgebiete nachdenkt. In diesem Vortrag beleuchte ich das Konzept der menschlichen Aufsicht aus interdisziplinärer Perspektive. Was sind die Ziele menschlicher Aufsicht, was sind die Bedingungen für effektive menschliche Aufsicht und welche Hebel gibt es, Menschen in ihrer Aufsichtsfunktion zu unterstützen?

Markus Langer ist Professor für Arbeits- und Organisationspsychologie an der Universität Freiburg. Er beforscht die Schnittstelle Psychologie und Mensch-Maschine Interaktion, mit Fokus auf KI-basierten Entscheidungen, Erklärbarer Künstliche Intelligenz, menschzentrierter Gestaltung KI-basierter Systeme und Vertrauen in KI. Seine Forschung ist interdisziplinär ausgerichtet und er arbeitet in Drittmittelprojekten mit Forschenden aus dem Bereich der Informatik, Philosophie, den Rechtswissenschaften und der Medizin.

 

Generative KI erfordert es, neu darüber nachzudenken, was Technik ist, wie Technik sozial konstruiert wird und wie Technik genutzt wird. Unser allgemeines Verständnis von Technik ist wesentlich durch designte Technik geprägt. Generative KI hingegen ist eine gelernte Technologie und darüber hinaus eine Technologie, die hauptsächlich auf unüberwachtem Lernen basiert. Der Vortrag argumentiert, dass dies weitreichende Konsequenzen hinsichtlich der Aufgabenbezogenheit generativer KI-Systeme hat, der Interaktion der Nutzer mit generativen KI-Systemen und der Agency dieser Systeme. Designtes technisches Verhalten wird in der Regel im Hinblick auf bestimmte Aufgaben entwickelt. KI-Systeme, die auf unüberwachtem Lernen basieren, sind dagegen nicht in dieser Weise aufgabenbezogen. Folglich können generative KI-Systeme nicht auf die gleiche Weise wie designte Technik genutzt werden. Anstatt sie zu bedienen, erfordert ihre Nutzung eine Art strategische Interaktion. Die Interaktion mit generativen KI-Systemen führt zu neuen Akteursrollen und Rollenbeziehungen. Die Agency von technischen Artefakten, die für bestimmte Aufgaben entwickelt und eingesetzt werden, entspricht in der Regel der Agency von Werkzeugen. Im Gegensatz dazu liegt die neue Agency generativer KI-Systeme in ihrer Fähigkeit, maschinell erlernte Versionen menschlichen Erfahrungswissens zu mobilisieren und dadurch in gewisser Weise menschlichen Interaktionspartnern ähnlich zu werden.

Ingo Schulz-Schaeffer ist Professor für Technik- und Innovationssoziologie an der TU Berlin. Zuvor war er Professor für Allgemeine Soziologie und Soziologische Theorie an der Universität Duisburg-Essen. Seine neueren Forschungen befassen sich mit dem Einfluss lokativen Medien auf die Raumwirklichkeit urbaner Räume, mit belohnungsbasiertem Crowdfunding als Form des Gabentauschs, mit der sozialen Konstruktion der Zusammenarbeit mit kollaborativen Robotern und mit der techniksoziologischen Analyse generativer KI. Darüber hinaus interessiert er sich seit langem für die soziologische Theorie der Technik mit Fokus auf die Frage der Handlungsträgerschaft von Technik.

Künstliche Intelligenz gilt als Schlüsseltechnologie, die entlang der gesamten Wertschöpfungskette Anwendung findet. Die Chancen erscheinen immens, doch zugleich treten Risiken hervor, die von „Halluzinationen“ generativer Systeme bis hin zu Fragen rechtlicher Verantwortlichkeit reichen. Die Regulierung von KI muss deshalb nicht nur technische Aspekte berücksichtigen, sondern auch ökonomische und rechtliche Dimensionen einbeziehen. Der Vortrag diskutiert die unterschiedlichen Regulierungsansätze, die auf europäischer und nationaler Ebene entwickelt werden können, und fragt nach deren Kohärenz sowie praktischer Umsetzbarkeit. Ziel ist es, die Spannungen zwischen Innovation, Rechtssicherheit und gesellschaftlichen Erwartungen herauszuarbeiten und mögliche Wege zu einer verantwortlichen Gestaltung von KI-Systemen aufzuzeigen.

Philipp Hacker, LL.M. (Yale), ist Inhaber des Lehrstuhls für Recht und Ethik der digitalen Gesellschaft an der European New School of Digital Studies (ENS) der Europa-Universität Viadrina Frankfurt (Oder). Derzeit konzentriert sich seine Forschung auf die Regulierung digitaler Technologien, insbesondere im Bereich der künstlichen Intelligenz. Philipp arbeitet häufig mit Informatikern und Mathematikern zusammen, insbesondere zu Fragen der erklärbaren KI, der algorithmischen Fairness und den Klimafolgen von KI. Für seine Arbeit erhielt er mehrere akademische Preise, darunter 2020 den Wissenschaftspreis der Deutschen Stiftung für Recht und Informatik. Er berät regelmäßig nationale und EU-Gesetzgeber, Regulierungsbehörden und die Industrie. Philipp ist Mitbegründer und Co-Leiter des International Expert Consortium on the Regulation, Economics and Computer Science of AI (RECSAI). Kürzlich wurde er zum General Editor der neuen, 11-bändigen Reihe AI and Society ernannt, die von 2025-2027 von Oxford University Press veröffentlicht wird. Er ist Mitglied der Task Force KI-Governance und des Expertenbeirats AI and Sustainability, beides jeweils bei der deutschen Bundesregierung, und hatte 2024/25 den Co-Vorsitz der Arbeitsgruppe „KI-Haftung“ für das Europäische Parlament inne.