Caveat usor: Vertrauen und epistemische Wachsamkeit gegenüber künstlicher Intelligenz
Schlagworte:
Vertrauen, epistemische Wachsamkeit, künstliche Intelligenz, Intransparenz, nicht-hinterfragende AkzeptanzKey words:
trust, epistemic vigilance, artificial intelligence, opacity, unquestioning acceptanceAbstract
Die aktuelle Diskussion zu künstlicher Intelligenz und Vertrauen ist einerseits durch etwas geprägt, was man „Vertrauens-Enthusiasmus“ nennen könnte. Dabei wird Vertrauen als eine Einstellung konzeptualisiert, die wir gegenüber KI-Systemen prinzipiell ausbilden können und – sofern und sobald diese Systeme entsprechend ausgereift sind – auch ausbilden sollten. Auf der anderen Seite wird diese Verwendungsweise des Vertrauens-Begriffs in einem signifikanten Teil der philosophischen Literatur mit großer Skepsis betrachtet. Zwei der in diesem Zusammenhang maßgeblichen Argumente lauten, erstens, dass ein Vertrauen in KI-Systeme nicht mit der für diese Systeme charakteristischen Intransparenz kompatibel sei, und zweitens, dass es auf eine Art Kategorienfehler hinauslaufe, zu sagen, man könne solchen Systemen „vertrauen“. Ich möchte in diesem Aufsatz für die Auffassung argumentieren, dass sowohl die enthusiastische als auch die skeptische Position problematisch sind. Gegen die skeptische Position wende ich ein, dass weder das Intransparenz- noch das Kategorienfehler-Argument letztlich überzeugen, und argumentiere, dass es zumindest eine natürliche Verwendungsweise des Vertrauensbegriffs gibt – Vertrauen als Haltung des Nicht-Hinterfragens –, die auch auf die Beziehung zu KI-Systemen angewandt werden kann. Andererseits wende ich gegen den Vertrauens-Enthusiasmus ein, dass dieser ein zu unkritisches Bild von Vertrauen zeichnet und dazu tendiert, dessen Risiken und Schattenseiten zu vernachlässigen. Ich setze dem enthusiastischen Bild das Prinzip Caveat usor entgegen und argumentiert, dass vernünftig dosiertes Vertrauen in KI-Systeme stets mit epistemischer Wachsamkeit einhergehen sollte.
On the one hand, the current discussion on artificial intelligence and trust is characterised by what might be called “trust enthusiasm”, which conceptualizes trust as an attitude that we can, and should, have in relation to AI systems when they have reached a sufficient level of maturity. On the other hand, this use of the concept of trust is viewed with great scepticism in a significant part of the philosophical literature. Two of the relevant arguments in this context are, first, that trust in AI systems is incompatible with the opacity characteristic of these systems, and, second, that to say that one can “trust” such systems amounts to a kind of category mistake. In this paper, I will argue that both the enthusiastic and the sceptical positions are problematic. Against the sceptical position, I argue that neither the opacity argument nor the category mistake argument is ultimately convincing, and that there is at least one natural use of the concept of trust – trust as an unquestioning attitude – that can be applied to the relationship with AI systems. On the other hand, I argue that trust enthusiasm paints an overly uncritical picture of trust and tends to neglect its risks and downsides. I counter the enthusiastic picture with the principle of caveat usor, arguing that judiciously measured trust in AI systems should always be accompanied by epistemic vigilance.
Downloads
Zitationsvorschlag
Ausgabe
Rubrik
Lizenz
Copyright (c) 2024 Rico Hauswald
Dieses Werk steht unter der Lizenz Creative Commons Namensnennung 4.0 International.