Imprimer Sauvegarder

Haut de page
Tribunal ontarien de l'aménagement du territoire
655, rue Bay, bureau 1500, Toronto (Ont.) M5G 1E5
Tél. : 416-212-6349 | 1-866-448-2248
olt.gov.on.ca

Directive de pratique sur l’utilisation de l’intelligence artificielle dans les instances devant le Tribunal ontarien de l’aménagement du territoire

La présente directive de pratique a pour objectif de guider les parties, les participants et les membres du public dans l’utilisation de l’intelligence artificielle générative (IA)[1] dans les instances devant le Tribunal ontarien de l'aménagement du territoire (le « Tribunal ») d’une manière conforme à la Directive sur l’utilisation responsable de l’intelligence artificielle du gouvernement de l’Ontario et aux pratiques exemplaires suivies dans d’autres tribunaux judiciaires et administratifs du Canada.

Utilisation de l’IA par les membres du Tribunal

Le Tribunal exécute sa mission de fournir des services de règlement des différends modernes, équitables, réactifs, accessibles, efficaces et efficients, afin de maintenir des collectivités fortes et saines et de protéger l’intérêt public.

L’arbitrage est une responsabilité humaine. Les membres du Tribunal entendent les causes et rendent des décisions fondées sur les preuves et les observations fournies par les parties. Ils n’utilisent pas l’IA pour rendre des décisions ou analyser des éléments de preuve. Les membres du Tribunal sont entièrement responsables de la prise de leurs décisions.

IA et instances du Tribunal

Applicable aux audiences débutant le 30 mars 2026 ou après cette date.

Déclaration concernant l’utilisation de l’IA générative

Dans certains cas, l’IA peut être un outil utile, mais elle n’est pas parfaite. Il est bien établi que les outils d’IA peuvent commettre des erreurs, fabriquer des précédents juridiques ou présenter des faits de manière erronée. Bien que le Tribunal n’interdise pas l’utilisation de l’IA pour créer ou générer du contenu dans un document préparé aux fins d’une instance, les individus qui utilisent l’IA à cette fin doivent le divulguer dans une déclaration.

Une partie, un participant ou un témoin doit informer le Tribunal et les autres parties de son utilisation de l’IA générative pour que l’exactitude du contenu des documents créés à l’aide de l’IA soit examinée de plus près. Il y a lieu de préciser que cette déclaration vise uniquement à informer le Tribunal et les parties afin qu’ils puissent agir en conséquence. L’inclusion d’une déclaration n’entraînera pas, en soi, de conclusion défavorable de la part du Tribunal à l’égard de la partie soumettant des documents générés par l’IA.

Le premier paragraphe de chaque document dans lequel l’IA a été utilisée pour créer ou générer du contenu doit contenir la déclaration suivante :

L’intelligence artificielle (IA) a été utilisée pour générer du contenu dans ce document [aux paragraphes x à y]. Tout le contenu généré par l’IA, ainsi que l’authenticité de toutes les sources citées dans ce document, ont été examinés et vérifiés par [insérer le nom de la personne].

Une déclaration n’est attendue que lorsque l’IA générative est utilisée pour créer du contenu dans un document. Une déclaration n’est pas requise si l’IA a été utilisée simplement pour suggérer des modifications ou critiquer un contenu déjà créé par un humain, qui a ensuite étudié ces suggestions et apporté les changements proposés.

Coûts et autres conséquences

Le Tribunal possède un vaste pouvoir pour gérer ses instances et le membre qui préside une audience a le pouvoir discrétionnaire de décider s’il y a lieu de tenir compte des éléments de preuve et observations soumis. Si une personne soumet au Tribunal des documents inexacts ou trompeurs générés par l’IA, ces documents ne seront pas pris en compte et pourront être rayés du dossier.

La présentation de documents inexacts ou trompeurs et le fait de ne pas fournir la déclaration requise ou de fournir une fausse déclaration peuvent constituer une conduite déraisonnable justifiant l’adjudication de dépens à l’encontre de la partie contrevenante, conformément à la règle 23 des Règles de pratique et de procédure du Tribunal ontarien de l’aménagement du territoire.

Autres pratiques exemplaires

Conseils à prendre en considération :

  1. Soyez prudent : Les résultats de l’IA peuvent être erronés. Si un outil d’IA fournit des sources juridiques ou analyse des informations, vérifiez attentivement les résultats. Les parties sont responsables de l’exactitude de toute jurisprudence, formulation de principes juridiques ou preuve présentée.
  2. Utilisez des sources fiables : L’IA peut indiquer des sources juridiques incorrectes ou fabriquées. Vérifiez toujours l’information obtenue en consultant directement des sources de confiance, comme les sites Web de tribunaux judiciaires ou administratifs, les éditeurs officiels ou des bases de données juridiques reconnues, par exemple CanLII, pour la jurisprudence.
  3. Responsabilité humaine : Vous êtes responsable de l’exactitude de vos observations écrites et orales, même si l’IA a aidé à les préparer. Vérifiez toujours l’information obtenue auprès de bases de données fiables pour vous assurer qu’elle est exacte et digne de confiance. Cela protège l’intégrité de notre système de justice.

Le Tribunal peut modifier la présente directive de pratique au besoin.

Dernière mise à jour : 29 janvier 2026

 

[1] L'intelligence artificielle comprend des systèmes appelés « grands modèles de langage ». Il s'agit d'un type d'IA capable de comprendre et de générer un texte semblable à celui d'un humain en apprenant à partir d'une grande quantité de données. Par exemple : ChatGPT, Google Gemini et Microsoft Copilot Chat.