Diese Ressource ist nicht mehr verfügbar

Cover Image

ML-Modelle sind experimentell und können fehlschlagen. Frühzeitige Erkennung von Abweichungen im Algorithmus ist entscheidend, da Verzerrungen in den Trainingsdaten oft zu Fehlern führen. Ein bekanntes Beispiel für ein fehlgeschlagenes ML-Projekt ist Amazons Rekrutierungssoftware, die männliche Bewerber bevorzugte. Verzerrungen sind keine Absicht, sondern ein Ergebnis von ungleich verteilten Trainingsdaten.

Unternehmen sollten für Vielfalt sorgen und Systeme regelmäßig auf Verzerrungen prüfen. Fördern Sie eine datenbasierte Kultur, testen Sie ML-Projekte ausreichend und stellen Sie sicher, dass das Ergebnis klar verantwortet wird. Erfahren Sie in diesem Whitepaper mehr.

Anbieter:
Hewlett Packard Enterprise
Veröffentlicht am:
17.02.2023
Verfasst am:
17.02.2023
Format:
PDF
Typ:
Whitepaper

Diese Ressource ist nicht mehr verfügbar.