Air Canada jugée responsable des informations erronées fournies par son chatbot à un passager

Dans une décision en date du 14 février 2024, le juge canadien a condamné Air Canada à indemniser un consommateur du préjudice subi en lien avec des informations incorrectes fournies par son chatbot.  

À la suite du décès de sa grand-mère survenu en novembre 2022, un internaute a réservé deux vols auprès d’Air Canada. 

Lors de sa navigation, l’internaute a interrogé le chabot du site web de la compagnie aérienne pour obtenir des informations sur les modalités d’application des tarifs préférentiels en cas de voyage lié à un deuil familial (« bereavement fare »)

Le chatbot a répondu au client qu’il pouvait bénéficier de manière rétroactive du tarif réduit en cas de deuil familial en soumettant sa demande de remboursement partiel dans les 90 jours suivant l’achat du billet. 

Quelques jours après son voyage, le client a recontacté Air Canada aux fins de soumettre sa demande de remboursement et bénéficier du tarif réduit. Se trouvant encore dans le délai de 90 jours indiqué par le chatbot, le consommateur fournissait à l’appui de sa demande le certificat de décès de sa grand-mère, le formulaire de demande de remboursement ainsi que les captures écran de sa conversation avec le chatbot.

Après plusieurs échanges de courriels, Air Canada a refusé de faire droit à la demande du consommateur au motif que les informations fournies par le chatbot ne correspondaient pas à sa politique tarifaire. 

Le consommateur a saisi le juge civil canadien (« Civil Resolution Tribunal ») aux fins de voir la compagnie aérienne condamnée au paiement de dommages et intérêts. 

Sur la responsabilité d’Air Canada quant aux déclarations inexactes de son chatbot (« negligent misrepresentations »)

Pour sa défense, Air Canada tentait de faire valoir qu’une entreprise ne pouvait être responsable des allégations tenues par son chatbot et qu’il appartenait au client de revérifier les informations fournies par cet outil. 

Air Canada soutenait notamment que dans sa réponse, le chatbot avait fourni au consommateur le lien vers la politique tarifaire applicable, ce qui aurait dû permettre au client de constater que l’information fournie par l’outil était erronée. 

Le juge civil canadien n’a pas retenu cet argumentaire en considérant que le consommateur pouvait raisonnablement s’attendre à ce que les informations fournies par le chatbot soient exactes. 

En somme, les juges ont considéré qu’Air Canada demeurait responsable des informations publiées sur son site internet, que celles-ci figurent sur une page web ou dans le chatbot[1].

Sur la réparation du préjudice subi par le consommateur 

Le juge canadien a estimé que le consommateur avait subi un préjudice financier et que l’indemnisation allouée devait correspondre au montant qu’il aurait dû percevoir s’il avait bénéficié du tarif réduit applicable. 

Autrement dit, les juges ont considéré que le consommateur devait être replacé dans la situation qui aurait été la sienne si le chatbot n’avait pas fourni d’information erronée[2].

Air Canada a ainsi été condamnée à payer au passager la somme de 650.88 dollars canadien au titre de son préjudice financier, en sus des frais procéduraux supportés par ce dernier (correspondant à la somme de 125 dollars).  

En synthèse, il convient de retenir de ce jugement que :

  • au regard du droit canadien, une entreprise peut être tenue responsable des informations inexactes fournies par son chatbot au consommateur ; 
  • les fausses déclarations d’un chatbot peuvent causer un préjudice, notamment financier, au consommateur. 

Lire le jugement rendu par le « Civil Resolution Tribunal » le 14 février 2024, SC-2023-005609  


[1] « While a chatbot has an interactive component it is still just a part of Air Canada’s website. It should be obvious to Air Canada that it is responsible for all the information on its website. It makes no difference wither the information comes from a static page or a chatbot » (§27).

[2] « M. Moffat is entilted to be put in the position they would have been in if the misrepresentation had not been made » (§ 33).


  • SAGA AI #1 – AI Act : L’UE adopte le premier règlement sur l’intelligence artificielle au monde
  • SAGA AI #2 – Les enjeux de l’utilisation de l’IA en matière de PI : focus sur les œuvres utilisées pour entraîner les IA
  • SAGA AI #3 – Contenus générés par une intelligence artificielle : qui détient quels droits ? 
  • SAGA AI #4  Le développement de l’IA confronté au droit de la protection des données personnelles
  • SAGA AI #5 – Le recours aux outils d’IA en entreprise : gouvernance et protection des informations couvertes par le secret des affaires
  • SAGA AI #6 – Intelligence artificielle : de nouvelles cyber obligations pour de nouveaux cyber crimes
  • SAGA AI #7 – Fait dommageable d’un système d’intelligence artificielle, quelles responsabilités ?
  • SAGA AI #8 – Intelligence artificielle dans le secteur juridique : risques et opportunités
  • SAGA AI #9 – État des lieux de la réglementation de l’IA à l’étranger
  • SAGA AI #10 – Comment encadrer l’IA dans les contrats de services informatiques ?
  • SAGA AI #11 – Protection des créations de l’intelligence artificielle : que nous apprend la jurisprudence étrangère ? 

Don't miss our next publications​

Your email address is processed by FÉRAL in order to send you the firm’s publications and news. You can unsubscribe at any time. To learn more about how your data is processed and how to exercise your rights, please consult our personal data protection policy.

Search
Close this search box.
Search
Close this search box.