Whisper im Krankenhaus: KI-Tool macht aus harmlosen Patientengesprächen Gewaltfantasien

KI-Modelle haben noch immer mit Halluzinationen zu kämpfen. Welche Folgen das haben kann, zeigt das Beispiel einer KI-Transkriptionslösung für Krankenhäuser. Die erfand teilweise erschreckende Sätze.

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: