background img

Ethik in der Künstlichen Intelligenz: Liefert die KI eigentlich korrekte und gerechte Antworten?

10 Monaten ago written by
banner

Bias in KI-Modellen bezeichnet die Neigung, Ergebnisse zu liefern, die einseitig oder von menschlichen Vorurteilen geprägt sind. „Diese Verzerrungen entstehen oft durch die Daten, mit denen die Modelle trainiert werden, sowie durch deren algorithmisch…

Bias in KI-Modellen bezeichnet die Neigung, Ergebnisse zu liefern, die einseitig oder von menschlichen Vorurteilen geprägt sind. „Diese Verzerrungen entstehen oft durch die Daten, mit denen die Modelle trainiert werden, sowie durch deren algorithmische Verarbeitung. In Studien wird häufig stillschweigend davon ausgegangen, dass eindeutig definiert ist, was eine „korrekte“ oder „unvoreingenommene“ Antwort darstellt“, so Prof. Dr. René Peinl. Doch die gesellschaftliche Realität zeigt: Solche Definitionen sind in …
banner

Comments are closed.