Intelligence artificielle : Éthique et défis sociétaux est un cours de quatre semaines qui explore les aspects éthiques et sociétaux de l'utilisation croissante des technologies d'intelligence artificielle (IA). L'objectif du cours est de sensibiliser aux aspects éthiques et sociétaux de l'IA et de stimuler la réflexion et la discussion sur les implications de l'utilisation de l'IA dans la société.
Le cours se compose de quatre modules, chaque module représentant environ une semaine d'études à temps partiel. Un module comprend un certain nombre de conférences et de lectures. Chaque leçon se termine par un devoir obligatoire dans lequel vous devez rédiger un bref résumé des nouvelles connaissances les plus importantes que vous avez acquises au cours de cette leçon, et réviser un résumé de leçon rédigé par un autre étudiant/participant. Les évaluations ont pour but d'encourager l'apprentissage et de stimuler la réflexion sur les questions éthiques et sociétales liées à l'utilisation de l'IA dans la société. La participation aux discussions du forum est volontaire mais fortement encouragée. Dans le premier module, nous discuterons de la partialité et de la surveillance algorithmiques. Est-il vraiment vrai que les algorithmes sont purement logiques et exempts de préjugés humains ou sont-ils peut-être tout aussi biaisés que nous, et si c'est le cas, pourquoi en est-il ainsi et que pouvons-nous faire à ce sujet ? L'IA rend la surveillance plus efficace à bien des égards, mais qu'est-ce que cela signifie pour nous si nous sommes de plus en plus surveillés de manière de plus en plus sophistiquée ? Ensuite, nous parlerons de l'impact de l'IA sur la démocratie. Nous discuterons des raisons pour lesquelles la démocratie est importante et de la manière dont l'IA pourrait entraver le débat démocratique public, mais aussi de la manière dont elle peut contribuer à améliorer la démocratie. Nous parlerons par exemple de la manière dont les médias sociaux pourraient jouer dans les mains de régimes autoritaires et nous présenterons quelques idées sur la manière d'utiliser les outils d'IA pour développer le fonctionnement de la démocratie. Une autre question éthique concerne la question de savoir si notre traitement de l'IA pourrait avoir une incidence sur les IA elles-mêmes. Les artefacts peuvent-ils être conscients ? Qu'entendons-nous par "conscient" ? Quelle est la relation entre la conscience et l'intelligence ? C'est le sujet de la troisième semaine de cours. Dans le dernier module, nous parlerons de la responsabilité et du contrôle. Si une voiture autonome heurte un robot autonome, qui est responsable ? Et qui est responsable de veiller à ce que l'IA soit développée de manière sûre et démocratique ? La dernière question du cours, et peut-être aussi la question ultime pour notre espèce, est de savoir comment contrôler des machines plus intelligentes que nous. Notre intelligence nous a donné beaucoup de pouvoir sur le monde dans lequel nous vivons. Allons-nous vraiment céder ce pouvoir aux machines et, si c'est le cas, comment rester maîtres de la situation ? A la fin du cours, vous aurez - une compréhension de base du phénomène de biais de l'IA et du rôle de l'IA dans la surveillance, - une compréhension de base de l'importance de la démocratie en relation avec l'IA et une connaissance des problèmes communs de la démocratie en relation avec l'IA, - une compréhension de la complexité des concepts "intelligence" et "conscience" et une connaissance des approches communes de la création de la conscience artificielle, - une compréhension de base des concepts de "responsabilité prospective" et "responsabilité rétrospective" et une connaissance des problèmes liés à l'application de ces concepts à l'IA, - une compréhension de base du problème du contrôle dans l'IA et une connaissance des solutions communément discutées à ce problème, - et une capacité à discuter et à réfléchir sur les aspects éthiques et sociétaux de ces questions.