banner
Centre d'Information
Nos produits sont appréciés sur les marchés locaux et étrangers.

Le tribunal dit non à l'utilisation de ChatGPT dans le cadre du procès en matière de marque Louboutin

Jun 20, 2023

Louboutin a remporté la dernière bataille en matière de marques en Inde, le tribunal ayant émis une injonction interdisant à une entreprise de chaussures non affiliée de proposer des chaussures copiées avec des chaussures à semelle rouge. Dans le même temps, le tribunal a mis en lumière la manière dont nous pouvons nous attendre à ce que les preuves générées par l’intelligence artificielle (« IA ») soient traitées à l’avenir. Dans une décision du 22 août, le juge Prathiba M. Singh de la Haute Cour de Delhi a ordonné à titre préliminaire à M/S The Shoe Boutique de s'abstenir de vendre des chaussures qui reflètent les « motifs de pointes » de Louboutin et sa semelle rouge, notant que le tribunal ne « reconnaît pas » un monopole en faveur de [Louboutin] pour toutes les chaussures à crampons ou semelles colorées », et à ce titre, pour faire l'objet d'une injonction, les produits doivent être « colorables ou une ou plusieurs imitations serviles » des modèles Louboutin et de ses célèbres seule marque rouge pour qu’une injonction soit justifiée.

Au-delà des éléments immédiats du procès concernant la marque, le tribunal a donné un aperçu de l'utilisation de la plateforme d'IA générative ChatGPT, sur laquelle Louboutin s'est appuyé dans le cadre de ses arguments relatifs au caractère distinctif acquis. L'avocat de la marque française de chaussures a soutenu qu'en plus des preuves secondaires centrées sur le sens qu'elle a avancées, y compris la publicité intensive de la marque et l'utilisation longue et continue de ses semelles rouges – ainsi que l'attention des médias tiers sur –, « la réputation qui [Louboutin] a recueilli peut également être évalué sur la base d'une requête ChatGPT qui a été posée au nom de [Louboutin].”

Plus précisément, l'avocat de Louboutin a soumis une réponse de ChatGPT (à la question de savoir si Louboutin est connu pour ses chaussures à pointes pour hommes), dans laquelle le chatbot alimenté par le Large Language Model (« LLM ») a déclaré : « Louboutin est connu pour ses emblématiques chaussures à semelles rouges. chaussures, y compris des styles à pointes pour hommes et femmes. Et l'équipe de la marque de chaussures a cherché à utiliser cela comme une preuve supplémentaire du caractère distinctif acquis de la marque, pour finalement être fermée par le tribunal.

Bien que le tribunal ait déterminé que Louboutin présentait suffisamment de preuves pour justifier une injonction préliminaire, il a également estimé que ChatGPT « ne peut pas servir de base au règlement de questions juridiques ou factuelles devant un tribunal », car les réponses fournies par un tel LLM « dépendent de une multitude de facteurs, notamment la nature et la structure de la requête posée par l'utilisateur, les données de formation, etc., [et] il existe des possibilités de réponses incorrectes, de jurisprudences fictives, de données imaginatives, etc. générées par les chatbots IA.

Étant donné que l’exactitude et la fiabilité des données générées par l’IA se situent encore dans une « zone grise », le tribunal a déclaré que « l’IA ne peut remplacer ni l’intelligence humaine ni l’élément humain dans le processus décisionnel, [et] au mieux, l’outil pourrait être utilisé pour une compréhension préliminaire ou pour des recherches préliminaires et rien de plus.

La décision du juge Singh fait suite à des ordonnances de juges aux États-Unis, dont un certain nombre exigent que les avocats comparaissant devant le tribunal attestent qu'aucune partie de leurs documents n'a été rédigée par une IA générative – ou si c'était le cas, que les informations contenues dans ces documents a été contrôlé « par un être humain ». Le juge Brantley Starr du tribunal de district américain du district nord du Texas, par exemple, a évoqué la possibilité pour les plateformes d'IA générative de se livrer à des hallucinations et ainsi de fournir des informations inexactes et, ce faisant, de devenir le premier juge fédéral à interdire explicitement le utilisation de l’IA générative – « telle ChatGPT, Harvey.AI ou Google Bard » – pour les dépôts, à moins que le contenu de ces dépôts n’ait été vérifié par un humain.

Selon le mandat du juge Starr de mai 2023, « ces plateformes, dans leur état actuel, sont sujettes aux hallucinations et aux préjugés. Concernant les hallucinations, ils inventent des trucs – même des citations et des citations.

Le juge d'instance Gabriel Fuentes du tribunal de district américain du district nord de l'Illinois a été un autre pionnier sur ce front, en publiant une ordonnance permanente révisée le 5 juin exigeant que « toute partie utilisant un outil d'IA générative dans la préparation de la rédaction de documents à déposer avec la Cour doit divulguer dans le dossier que l’IA a été utilisée », la divulgation identifiant l’outil d’IA spécifique et la manière dont il a été utilisé. L'ordonnance du juge exige également que les parties divulguent non seulement si elles ont utilisé l'IA générative pour rédiger des documents, mais plus fondamentalement, si elles ont utilisé l'IA générative pour mener les recherches juridiques correspondantes.