Algorithmisches Auditing kann ineffektiv sein, wenn es darum geht, die Rechenschaftspflicht der synthetischen Intelligenz aufrechtzuerhalten, bis es traditionelle Anforderungen, Ansätze und Ziele gibt, die Programme in jeder Phase des Musters und der Bereitstellung hinterfragen, sagt deem-tank
Von
Unzureichende und krank umrissene algorithmische Prüfprozesse werden verfallen, um problematische oder rechtswidrige Praktiken mit synthetischer Intelligenz zu maskieren ( AI), im Wesentlichen basierend auf einer Geschichte des German Marshall Fund (GMF). Abgedruckt unter der Digital Innovation and Democracy Initiative des GMF deem-tank, heißt es in der Geschichte, dass algorithmische Audits zwar die Undurchsichtigkeit von KI-Programmen angemessen unterstützen können, schlecht konzipierte oder durchgeführte Audits jedoch höchstens Aufmerksamkeit erregen, bedeutungslos sind und im schlimmsten Fall ablenken können Rücksichtnahme und sogar Entschuldigung für die Schäden, die sie mildern sollen. Genau hier ist in jedem anderen Fall eine Meinung als „Audit-Wäsche“, und die Geschichte, die über die jüngsten Audit-Praktiken des Tech-Alternativen berichtet wird, stellt eine gefälschte Versicherung dar, da die Unternehmen sowohl ihre privaten Selbstbewertungen durchführen als auch, wenn es externe Bewertungen gibt, werden grundsätzlich auf der Grundlage ihrer privaten Ziele beurteilt und nicht auf der Grundlage der Anforderungen von Drittveranstaltungen.
„Wenn sie intelligent konzipiert und angewendet werden, können Audits Transparenz und Erfahrungswerte fördern lainability“, heißt es in der Geschichte. „Sie werden Aspekte der Maschinenkonstruktion und -bedienung bergen, die andernfalls vielleicht verborgen bleiben würden. Audits könnten sich aus Gründen der Transparenz und Erklärbarkeit ändern. In dem Wunsch, sich auf diejenigen zu verlassen, die algorithmische Programme zum Zeigen oder Enthüllen produzieren und einsetzen, untersuchen Prüfer die Programme selbst. „Audits werden nicht mehr der KI oder der Plattform zur Rechenschaft gezogen, es sei denn, sie sind selbst engagiert.“
Um sicherzustellen, dass sich algorithmische Audits zu einem hingebungsvollen und stressigen Segment der KI-Governance entwickeln, erklärte GMF, dass Tonnen von Schlüsselfragen echt aussehen sollten. Diese umfassen, wer das Auditing durchführt. Lassen Sie uns darauf bestehen, während Innenprüfungen bekanntermaßen Komplikationen beseitigen können, bevor sie Menschen belasten, sagte GMF, dass diese Richtung von Natur aus nicht vertrauenswürdig ist, da es möglicherweise fragwürdig sein könnte, nicht überprüfbare Behauptungen zu präsentieren, die die KI rechtmäßig abgegeben hat oder moralischen Anforderungen. Außenprüfungen hingegen, während sie nicht in der Lage sind Komplikationen, die auf einen grundsätzlichen Rückblick mittels der KI-Musterrichtung zurückzuführen sind, frühzeitig beseitigen, wird insgesamt Unabhängigkeit von der einsetzenden Organisation zeigen, Vertrauenswürdigkeit und Compliance signalisieren. Im Juli 2022 veröffentlichte Meta beispielsweise seine allererste Menschenrechtsgeschichte, die von der Firma selbst aufgeführt wurde. Während es die „bedeutendsten Risiken“ des Unternehmens und das Verfahren, mit dem es „Rechte respektierende Praktiken, Entscheidungen, Ansätze und Produkte“ schafft, detailliert darlegte, sagten Aktivisten damals, Meta habe es versäumt, die negativen Auswirkungen seiner privaten Überwachung auf die Rechte sorgfältig zu beobachten – im Grunde basierte kommerzielle Schaufensterpuppe. Vielfältiges Vertrauen
Hier weiter zum Artikel
KI-Rechenschaftspflicht,durch