
Un avertissement glaçant résonne dans les cercles scientifiques et technologiques : l’intelligence artificielle, loin d’être une simple bénédiction, pourrait bien sonner le glas de notre civilisation. Plus de 800 figures éminentes – scientifiques, politiciens, entrepreneurs et célébrités – ont uni leurs voix dans un appel désespéré. Leur demande est claire, et terrifiante : stopper immédiatement le développement de la superintelligence artificielle.
Cet appel, lancé par le Future of Life Institute, un organisme déjà connu pour ses mises en garde alarmistes, dépeint un avenir sombre. Ils exigent un moratoire tant qu’un consensus scientifique sur un contrôle sécurisé n’est pas établi, et surtout, tant que l’opinion publique n’a pas donné son consentement. L’idée même d’une IA capable de surpasser l’intellect humain sans garde-fous est un scénario digne des pires dystopies.
Parmi les signataires, des noms qui font froid dans le dos. Des pères fondateurs de l’IA comme Geoffrey Hinton, lauréat du prix Nobel de physique, côtoient des géants de la tech comme Steve Wozniak, cofondateur d’Apple. Même des personnalités aussi diverses que Steve Bannon, conseiller de Donald Trump, et le prince Harry figurent sur cette liste, soulignant l’ampleur de la peur qui s’empare de tous les horizons. L’inquiétude est palpable, la menace jugée universelle.
Alors que des acteurs majeurs de l’IA, à l’image d’OpenAI, s’obstinent à poursuivre la course vers l’intelligence artificielle générale (AGI) et la superintelligence, les alertes sont ignorées. Sam Altman, le patron d’OpenAI, ose même prédire l’avènement de cette superintelligence d’ici cinq ans. Une perspective effrayante, jugée « inacceptable » par Max Tegmark du Future of Life Institute. Il est clair que les entreprises naviguent en eaux troubles, sans aucun cadre réglementaire, poussant l’humanité vers un précipice technologique. L’heure n’est plus à l’innovation aveugle, mais à la prise de conscience des dangers qui nous guettent.






