Verständliche Einblicke in die KI-Forschung

nrwheute
2 Min. Lesezeit

Künstliche Intelligenz (KI) ist in nahezu allen Lebensbereichen präsent und soll Menschen unterstützen und beraten, indem sie objektive und optimierte Lösungsvorschläge liefert. Eine Herausforderung besteht jedoch darin, dass Menschen verstehen müssen, warum und wie KI zu bestimmten Ergebnissen kommt. Im Sonderforschungsbereich/Transregio 318 der Universitäten Bielefeld und Paderborn arbeitet ein interdisziplinäres Forschungsteam an verständlichen Assistenzsystemen, die Rückfragen beantworten und Erklärungen liefern können. Der neue Forschungspodcast gibt Einblicke in dieses Thema und erklärt, warum erklärbare KI entscheidend für die Zukunft der KI-Forschung ist.

Ein interdisziplinäres Team aus sechs Disziplinen, darunter Informatik, Linguistik, Psychologie, Soziologie und Wirtschaftswissenschaften, forscht im SFB/TRR 318 an interaktivem Erklären und dessen Übertragung auf KI-Systeme. Der Podcast “Explaining Explainability” bringt diese Disziplinen zusammen und beleuchtet aktuelle Forschung, Herausforderungen und Anwendungsbereiche rund um erklärbare KI. Forscherinnen wie Professorin Dr. Britta Wrede, Professor Dr. Philipp Cimiano und Professorin Dr. Katharina Rohlfing sprechen über ihre Arbeit und die Bedeutung von Erklärbarkeit in der KI.

In der ersten Podcast-Episode diskutieren Forscher aus Informatik und Linguistik über das Thema Erklärbarkeit. Sie erläutern, warum Explainability wichtig ist, wo die Forschung steht und welche Herausforderungen es gibt. Die Wissenschaftler geben konkrete Beispiele, wie hochtechnische Abläufe verständlich dargestellt werden können und betonen die Bedeutung der Person, die eine Erklärung erhält. Weitere Episoden werden im Zwei-Monats-Rhythmus folgen und sich mit Alltagserklärungen sowie der Ko-Konstruktion von Erklärungen beschäftigen.

Im Rahmen des SFB/TRR 318 “Constructing Explainability” forschen Wissenschaftler daran, Nutzer in den Erklärprozess von KI einzubinden, um verständliche Assistenzsysteme zu schaffen. Das interdisziplinäre Team untersucht die Prinzipien des Erklärens und wie diese im Design von KI-Systemen berücksichtigt werden können. Das Ziel des Projektes ist es, Erklärprozesse verständlich zu gestalten und somit KI begreifbar zu machen. Insgesamt sind 22 Projektleiter und etwa 40 wissenschaftliche Mitarbeitende an diesem Forschungsvorhaben beteiligt.

Teile diesen Artikel
Hinterlasse einen Kommentar

Leave a Reply

Your email address will not be published. Required fields are marked *