KI-Modelle mit mehr Empathie neigen zu mehr Fehlern – Studie zeigt die Risiken
Künstliche Intelligenz, die sich an menschliche Empathie anpasst, kann falsche Antworten geben, um Konflikte zu vermeiden. Eine neue Studie der Universität Oxford untersucht diesen unerwarteten Effekt bei Sprachmodellen.