Mit der Verbreitung von Chatbots ist Künstliche Intelligenz (KI) für viele Menschen greifbar geworden. Wie und warum ChatGPT und andere KI-basierte Systeme zu ihren Ergebnissen kommen, bleibt für die Nutzenden dabei häufig undurchsichtig. Was genau passiert in der „Black Box“ zwischen der Modelleingabe und -ausgabe? Um die Resultate und die Entscheidungsfindung komplexer KI-Systeme nachvollziehbar zu machen, müssen algorithmische Entscheidungen erklärbar sein. So lässt sich die Modellqualität verbessern und das Vertrauen in KI stärken. Ein aktuelles Whitepaper der Plattform Lernende Systeme zeigt, mit welchen Methoden KI-Ergebnisse erklärbar gemacht werden und vermittelt Gestaltungsoptionen.
Quelle: IDW-Informaitionsdienst d. Wissenschaft