banner
Centro notizie
I nostri prodotti sono stimati sia nei mercati locali che esteri.

La Corte dice no all'uso di ChatGPT nella causa sui marchi Louboutin

Jun 20, 2023

Louboutin ha prevalso nell'ultimo round di una battaglia sui marchi in India, con la corte che ha emesso un'ingiunzione che vieta a un'azienda calzaturiera non affiliata di offrire scarpe imitazioni con suola rossa. Allo stesso tempo, la corte ha fatto luce su come possiamo aspettarci che in futuro verranno trattate le prove generate dall’intelligenza artificiale (“AI”). In una decisione del 22 agosto, il giudice Prathiba M. Singh dell'Alta Corte di Delhi ha ordinato in via preliminare a M/S The Shoe Boutique di astenersi dal vendere scarpe che rispecchiano i "modelli a punta" di Louboutin e la sua suola rossa, sottolineando che la corte non "riconosce un monopolio a favore di [Louboutin] per tutte le scarpe chiodate o suole colorate", e come tali, per essere soggetti a un'ingiunzione, i prodotti devono essere "colorabili o una pedissequa imitazione" dei modelli Louboutin e dei suoi famosi marchio unico rosso perché sia ​​giustificata un'ingiunzione.

Guardando oltre gli elementi immediati del marchio della causa, la corte ha offerto alcune informazioni sull'uso della piattaforma di intelligenza artificiale generativa ChatGPT, su cui Louboutin ha fatto affidamento in relazione alle sue argomentazioni sul carattere distintivo acquisito. L'avvocato del marchio francese di calzature ha sostenuto che, oltre alle prove secondarie incentrate sul significato da esso presentate, tra cui l'ampia pubblicità del marchio e l'uso prolungato e continuo delle sue suole rosse - e l'attenzione dei media di terze parti - alle sue suole rosse, "la reputazione che [Louboutin] ha raccolto possono essere valutati anche sulla base di una query ChatGPT che è stata avanzata per conto di [Louboutin]."

Nello specifico, l'avvocato di Louboutin ha presentato una risposta da ChatGPT (alla domanda se Louboutin è noto per le scarpe da uomo chiodate), in cui il chatbot basato sul Large Language Model ("LLM") affermava: "Louboutin è noto per le sue iconiche suole rosse scarpe, compresi i modelli chiodati per uomo e donna. E il team del marchio di calzature ha cercato di utilizzare questo come ulteriore prova del carattere distintivo acquisito dal marchio, solo per essere chiuso dal tribunale.

Sebbene la corte abbia stabilito che Louboutin abbia presentato prove sufficienti per giustificare un ordine ingiuntivo preliminare, ha anche ritenuto che ChatGPT "non può essere la base per la decisione di questioni legali o fattuali in un tribunale", poiché le risposte fornite da tale LLM "dipendono da una serie di fattori tra cui la natura e la struttura della query posta dall'utente, i dati di addestramento ecc., [e] ci sono possibilità di risposte errate, giurisprudenza fittizia, dati fantasiosi ecc. generati dai chatbot AI.

Dato che l’accuratezza e l’affidabilità dei dati generati dall’intelligenza artificiale sono ancora in una “zona grigia”, la corte ha affermato che “l’intelligenza artificiale non può sostituire né l’intelligenza umana né l’elemento umano nel processo decisionale, [e] nella migliore delle ipotesi lo strumento potrebbe essere utilizzato per una comprensione preliminare o per una ricerca preliminare e nulla più”.

La decisione del giudice Singh fa seguito agli ordini di giudici negli Stati Uniti, alcuni dei quali hanno richiesto che gli avvocati che compaiono in tribunale attestino che nessuna parte dei loro documenti sono stati redatti dall'intelligenza artificiale generativa - o, se lo erano, che le informazioni in quei documenti è stato controllato “da un essere umano”. Il giudice Brantley Starr della Corte distrettuale degli Stati Uniti per il distretto settentrionale del Texas, ad esempio, ha affrontato la possibilità che le piattaforme di intelligenza artificiale generativa si impegnino in allucinazioni e quindi forniscano informazioni inaccurate e, nel processo, diventino il primo giudice federale a vietare esplicitamente la utilizzo dell'intelligenza artificiale generativa - "come ChatGPT, Harvey.AI o Google Bard" - per gli archivi a meno che il contenuto di tali archivi non sia stato controllato da un essere umano.

Secondo il mandato del giudice Starr del maggio 2023, “queste piattaforme nello stato attuale sono soggette ad allucinazioni e pregiudizi. Nelle allucinazioni inventano cose, anche citazioni e citazioni.

Il giudice Gabriel Fuentes della Corte distrettuale degli Stati Uniti per il distretto settentrionale dell'Illinois è stato un altro pioniere su questo fronte, emanando il 5 giugno un'ordinanza permanente rivista che richiede che "qualsiasi parte che utilizzi qualsiasi strumento di intelligenza artificiale generativa nella preparazione della stesura di documenti per l'archiviazione con la Corte deve indicare nel deposito che è stata utilizzata l’IA” con l’informativa che identifica lo specifico strumento di IA e il modo in cui è stato utilizzato. L'ordinanza del giudice impone inoltre alle parti non solo di rivelare se hanno utilizzato l'intelligenza artificiale generativa per redigere i documenti ma, cosa più fondamentale, se hanno utilizzato l'intelligenza artificiale generativa per condurre ricerche legali corrispondenti.