
L’intelligence artificielle, loin d’être la panacée annoncée, est en train de semer un désordre profond au sein de la profession d’avocat. À Paris, l’Ordre des avocats est déjà confronté à l’émergence de contentieux inédits, révélant les failles dangereuses d’une intégration précipitée et mal maîtrisée de ces technologies. Le bâtonnier Louis Degos anticipe une intensification de ces batailles, l’IA s’immisçant déjà dans tous les pans du droit, à l’exception notable du pénal faute de bases de données suffisantes.
Le problème le plus alarmant réside dans la capacité de l’IA à « halluciner », c’est-à-dire à inventer des jurisprudences ou des faits juridiques de toutes pièces, présentés avec un aplomb trompeur. Des avocats peu scrupuleux ou négligents se retrouvent à soumettre des conclusions truffées d’informations erronées, générant des conflits déontologiques et sapant la confiance entre confrères. Les erreurs de l’IA peuvent avoir des conséquences graves, engageant la responsabilité professionnelle de l’avocat et jetant une ombre sur l’intégrité de la justice elle-même. La France a déjà vu des avocats sanctionnés pour avoir produit de fausses jurisprudences.
Cette situation soulève des questions fondamentales sur la responsabilité en cas d’erreur. Qui est réellement fautif lorsque l’IA déraille ? Le développeur, l’utilisateur, ou la machine elle-même ? Pour l’heure, l’absence de vérification humaine systématique des contenus générés par l’IA est une faille critique. Tandis que l’IA promet des gains de temps et de productivité, elle expose aussi les avocats à des risques sans précédent si l’information n’est pas scrupuleusement contrôlée. Il est impératif d’intégrer l’usage de l’IA dans des processus où la validation humaine reste une étape incontournable, pour éviter un effondrement de la fiabilité juridique.






