Die verantwortungsvolle Gestaltung und Nutzung von Informationssystemen und Plattformen

Zusammenfassung

Die verantwortungsvolle Gestaltung und Nutzung von Informationssystemen und Plattformen gewinnt immer mehr an Bedeutung, nicht nur durch die jüngsten Entwicklungen im Bereich der Künstlichen Intelligenz. Im Englischen spricht man in diesem Zusammenhang von „Digital Responsibility“ und meint damit insb. Bemühungen von Individuen, Unternehmen oder öffentlichen Einrichtungen, um eine nachhaltige, inklusive, faire und werteorientierte digitalen Welt zu erschaffen (vgl. Trier et. al, 2023). Das Fachgebiet ist besonders daran interessiert zu erforschen, wie Organisationen und ihre Mitarbeitende (neuartige) Informationssysteme und Plattformen verantwortungsvoll gestalten und nutzen und dabei die Prinzipien von Digital Responsibility berücksichtigen. Dazu zählen die Prinzipien IT-Sicherheit, Privatsphäre, Accountability, Transparenz, Fairness und Nachhaltigkeit. Diese Prinzipien sind ein Eckpfeiler für die Digitalisierung der Wirtschaft und Gesellschaft und unverzichtbar für eine erfolgreiche und nachhaltige digitale Transformation. 

Quelle: Trier, M., Kundisch, D., Beverungen, D. et al. (2023). Digital Responsibility. Bus Inf Syst Eng 65, 463–474. doi.org/10.1007/s12599-023-00822-x

Wiss. Mitarbeiter*innen

Philipp Danylak, Guangyu Du, Yannick Heß, Long Nguyen, Eva Späthe, Kathrin Brecker. 

Ehemalige: Malte Greulich 

Forschungsschwerpunkte

Untersuchung, wie Unternehmen formale Sicherheitsstandards (z. B. ISO/IEC 27001) tatsächlich in interne Prozesse, Kultur und Verhalten einbetten.

Untersuchung von KI-Systemen, die nachvollziehbar und rechenschaftspflichtig sind. Schaffung von Grundlagen zu AI Accountability, Förderung von proaktiven Verhalten zur Erhöhung von AI Accountability sowie Auswirkungen von AI Accountability auf Nutzer*innen.  

Erforschung von Mechanismen und Frameworks, die Datenschutz im Einklang mit gesetzlichen Vorgaben aktiv fördern.

Entwicklung von Prüfverfahren und Zertifizierungsleitfäden, um vertrauenswürdige KI-Lösungen zu validieren. Berücksichtigung der Veränderlichkeit von KI-Systemen. 

Untersuchung wie Mitarbeitende Sicherheitsrichtlinien im Unternehmen umsetzen und die IT-Ressourcen im Unternehmen (proaktiv) schützen.

Erforschung dynamischer, fortlaufender Auditierungs- und Zertifizierungsmethoden statt punktueller Prüfungen.

Untersuchung, wie digitale Plattformen und Ökosysteme geschaffen werden können und somit nationale und organisatorische Autonomie stärken.

Beispielhafte Veröffentlichungen

  • Greulich, M.; Lins, S.; Pienta, D.; Thatcher, J. B.; Sunyaev, A. (2024). Exploring Contrasting Effects of Trust in Organizational Security Practices and Protective Structures on Employees’ Security-Related Precaution Taking. In: Information Systems Research 35 (4). Pages 1507-2085. doi:10.1287/isre.2021.0528
  • Du, G.; Lins, S.; Blohm, I.; Sunyaev, A. “My Fault, Not AI’s Fault. Self-serving Bias Impacts Employees’ Attribution of AI Accountability”. In: Proceedings of the 45th International Conference on Information Systems (ICIS)
  • Nguyen, L. H.; Lins, S.; Sunyaev, A. (2024). “Unraveling the Nuances of AI Accountability: A Synthesis of Dimensions Across Disciplines”, In: Proceedings of the European Conference on Information Systems (ECIS).
  • Brecker, K.; Lins, S.; Sunyaev, A. (2023). Why it Remains Challenging to Assess Artificial Intelligence. Proceedings of the 56th Hawaii International Conference on System Sciences (HICSS)
  • Danylak, P.; Lins, S.; Greulich, M.; Sunyaev, A. (2022). Toward a Unified Framework for Information Systems Certification Internalization. Proceedings of the 24th IEEE Conference on Business Informatics (CBI)
  • Lins, S., Schneider, S., Szefer, J., Ibraheem, S. & Sunyaev, A. (2019). Designing Monitoring Systems for Continuous Certification of Cloud Services: Deriving Meta-Requirements and Design Guidelines. In: Communications of the AIS, 44, 10.17705/1CAIS.04425.