Wie speichert man Wissen? Von Büchern zu Wissensgraphen und Sprachmodellen
Heutige Computeranwendungen sind in der Lage, große Mengen an Wissen zu speichern. Neben großen Sprachmodellen (large language models), wie beispielsweise chatGPT, finden auch Wissensgraphen, welche Fakten in Form von Tripeln speichern, Anwendung in modernen Informations- und Wissenssystemen. In diesem kostenfreien Online-Vortrag der Deutschen Gesellschaft für Information und Wissen e.V. (DGI) gibt Prof. Dr. Ralf Krestel (ZBW – Leibniz-Informationszentrum Wirtschaft und der Christian-Albrechts-Universität zu Kiel) eine Einführung in diese Technologien und zeigt anhand von Beispielen, wie diese funktionieren und welches ihre Stärken und Schwächen sind.