Nach der anfänglichen Begeisterung ist das erste Gefühl, das ChatGPT-Experimentatoren erfasst, … Ernüchterung angesichts der Masse an fehlerhaften Informationen, die er unserer Meinung nach mit voller Zuversicht vorbringt, um seinen Gesprächspartner zufriedenzustellen (https://www.numerama.com/tech/1251982- don’t-trust-chatgpt-he-lies-all-the-time.html). Erinnern wir uns auch an das sehr teure Fiasko von Googles Bard-Demo auf dem angeblich ersten Foto eines Exoplaneten durch das James-Webb-Teleskop … wer ist nicht der Autor (https://www.bbc.com/news/business -64576225) .
Gegen Falschinformationen, die durch unbeabsichtigte KI-Algorithmen erzeugt werden, könnten wir, was viel besorgniserregender ist, die Horden von Deepfakes (https://fr.wikipedia.org/wiki/Deepfake) bekämpfen, die Gefahr laufen, „Fake News“ von kleineren Belästigungen bis hin zu Waffen weiterzugeben der Massenvernichtung; Nennen wir das bekannte Beispiel von Barak Obama, der Beleidigungen gegen Donald Trump deklamierte.
Was Twitter betrifft (jetzt bekannt unter der Marke //www.slate.fr/story/241904/service-premium-twitter-blue-elon-musk-echec-connexion-payant-badge-bleu-certification-reseau-social).
Welchen gemeinsamen Punkt können wir zu diesen Themen hervorheben? Das des Vertrauens in die Quelle. Bei fehlerhaften Kommentaren von ChatGPT wird der Absender der Informationen nicht identifiziert. Bei Deepfakes versuchen wir, die Identität dieses Emittenten an sich zu reißen. Was Twitter betrifft, so vermittelt es die Illusion, die Identität zu garantieren – ohne wirkliche Überprüfung.
Allerdings ist die Möglichkeit, die Quelle von Informationen oder digitalen Inhalten zuverlässig und sicher zu authentifizieren, ein heikles Thema, das Archivaren seit langem bekannt ist und insbesondere in der eIDAS-Verordnung behandelt wird (https://www.ssi.gouv.fr/). Administration/reglementation/confiance-numerique/le-reglement-eidas/#:~:text=Le%20r%C3%A8glement%20eIDAS%20applies,march%C3%A9%20de%20la% 20confidence%20num%C3%A9rique) . Dies beginnt mit einer einfachen Beobachtung: Elektronische Dokumente zu archivieren ist gut, sie während der Archivierung elektronisch zu signieren ist besser, aber noch besser ist es, vor der Archivierung ihre Authentizität zu prüfen! Hier kommt der komplexe Prozess der elektronischen Signaturprüfung ins Spiel, zu dem beispielsweise auch die Prüfung der Nicht-Widerrufbarkeit von Zertifikaten gehört, die vor der Archivierung eines Dokuments durchgeführt werden muss.
Dennoch ist dieses Thema voller Paradoxien. Zitieren wir diesen Absatz, der mir besonders aufgefallen ist, aus der Studie „Integrität, Signatur und Archivierungsprozess“ von Françoise Banat-Berger und Anne Canteaut (https://www.rocq.inria.fr/secret/Anne. Canteaut/Publications /BaCa07.pdf):
„Bitten wir heute einen Archivar, die handschriftlichen Unterschriften zu überprüfen, die auf den Dokumenten erscheinen, die er erhält? Was wir vom Archivar verlangen, ist, den Archivierungsprozess zu gewährleisten, paradoxerweise auch bei Dokumenten, bei denen es sich um Fälschungen handelt: Der Archivar muss nachweisen können, dass er Fälschungen perfekt konserviert hat! »
Um auf unsere Parallele zu ChatGPT oder Deep Fakes zurückzukommen: Es ginge darum, auf unfälschbare Weise zu beweisen, dass die bereitgestellten Informationen tatsächlich von der NASA stammen oder dass das Video von Barak Obama den wahren Präsidenten der USA zeigt (wir können zitieren). der Artikel „Protecting World Leaders Against Deep Fakes“, in dem eine Erkennungslösung basierend auf einer biometrischen Signatur von Menschen diskutiert wird: https://openaccess.thecvf.com/content_CVPRW_2019/papers/Media%20Forensics/Agarwal_Protecting_World_Leaders_Against_Deep_Fakes_CVPRW_2019_paper.pdf). Der Zertifikatskettenmechanismus der elektronischen Signatur könnte durchaus eine Inspirationsquelle sein!
Nehmen wir an, dass wir das Problem der Authentizität gelöst haben. Ebenso wie bei Archiven bedeutet die Authentifizierung der Quelle nicht, dass diese Quelle wahrheitsgemäße Angaben gemacht hat. Wir kennen die Grenzen des „Autoritätsarguments“. Daher sind die Nobelpreise, die in Richtung verrückter Theorien oder Pseudowissenschaften „entgleist“ sind, so zahlreich, dass sie unter dem Begriff „Nobelkrankheit“ zusammengefasst wurden (https://www.lalibre.be/planete/science-space/2022/ 02/10/die-nobelkrankheit-wenn-wissenschaftler-derail-UZ32J66SORBJ5MSWMXYKKISPJI/).
Es geht also darum, diesen Echtheitsbeweis, dessen Mechanismus noch zu konstruieren ist, durch einen Wahrhaftigkeitsbeweis zu ergänzen. „Faktenüberprüfung“ wäre dabei ein Baustein. Allerdings müssen wir uns darüber im Klaren sein, dass die Wissenschaft der „Wahrhaftigkeitsbewertung“ erst in den Kinderschuhen steckt (wie in der Veröffentlichung https://www.sciencedirect.com/science/article/pii/S0167923619301617 hervorgehoben). Anders als bei elektronischen Signaturen scheint dies kein Aspekt zu sein, der die Produzenten digitaler Archive immer noch beschäftigt. Aber bis wann?
Ein weiterer möglicher Weg ist die menschliche Kontrolle bei der Übermittlung von Archiven. Hier kann die Idee eines Eingabeworkflows eine Rolle spielen, der den Zugang zum Archivierungssystem nur dann ermöglicht, wenn ein menschlicher Validator das Archiv explizit akzeptiert hat.
Wir können davon träumen, dass im Bereich der digitalen Informationen zum Thema Vertrauen nach und nach eine fruchtbare Synergie entsteht. Dies ist vielleicht sogar die Voraussetzung für das Überleben der Branche!
Mikaël Mechoulam