Sąd krytykuje użycie AI
Sędzia Laura Provinzino z federalnego sądu w Minnesocie wydała decyzję, która wyklucza opinię eksperta Jeffa Hancocka z postępowania. Hancock, profesor z Uniwersytetu Stanforda, przyznał, że korzystał z ChatGPT-4 podczas tworzenia swojego raportu. W związku z tym sąd uznał, że fałszywe cytaty podważają zaufanie do opinii eksperta. To zdarzenie pokazuje, jak niebezpieczne może być nieświadome poleganie na sztucznej inteligencji w ważnych kwestiach prawnych.
Ironia w sprawie dotyczącej AI
Provinzino zauważyła, że sytuacja jest ironiczna, ponieważ Hancock, ekspert od dezinformacji i zagrożeń związanych z AI, sam padł ofiarą nadmiernego zaufania do tej technologii. Sprawa dotyczy prawa, które ma na celu ochronę przed dezinformacją związaną z „deepfake’ami”. Ostatecznie eksperta, który miał pomóc w walce z dezinformacją, skompromitowała właśnie ta technologia. Zdarzenie to zwróciło uwagę na problem tzw. „halucynacji” AI, czyli generowania nieprawdziwych informacji przez modele językowe.
Ekspert wykluczony z postępowania
Decyzja sądu wyklucza Hancocka jako eksperta w tej sprawie. Sędzia odrzuciła również możliwość poprawienia jego wcześniejszej deklaracji. To oznacza, że stanowisko obrony zostało znacząco osłabione. Dla środowiska prawnego przypadek ten jest sygnałem ostrzegawczym przed korzystaniem z AI bez odpowiednich procedur weryfikacji.
Prawo o „deepfake’ach” w Minnesocie
Prawo, wprowadzone w Minnesocie w 2023 roku, zakazuje używania „deepfake’ów” w celu wpływania na wybory. Przepisy te są kwestionowane jako niezgodne z konstytucją przez republikańską posłankę Mary Franson oraz satyryka Christophera Kohlsa. Krytycy twierdzą, że regulacje te mogą ograniczać wolność artystyczną i satyrę polityczną. To kolejny przykład konfliktu między technologią a wolnościami obywatelskimi.
Satyrzyści przeciwko regulacjom AI
Kohls, znany jako „Mr Reagan”, stworzył parodię, która przedstawiała fałszywy spot wyborczy Kamali Harris. Nagranie opublikowano na platformie X, a następnie udostępnił je właściciel serwisu, Elon Musk. Przeciwnicy prawa twierdzą, że ogranicza ono możliwość tworzenia parodii politycznych. Sprawa może stanowić precedens w kontekście swobody wypowiedzi w epoce cyfrowej.
Reakcje na decyzję sądu
Adwokat strony powodowej, Doug Seaton, stwierdził, że decyzja sądu potwierdza, iż opinia eksperta była „czystą dezinformacją AI”, wygenerowaną za pomocą narzędzia ChatGPT OpenAI. Sąd wykluczył możliwość „naprawienia” raportu przez Hancocka, co stanowi poważny cios dla obrony. Dla wielu obserwatorów jest to dowód na to, jak nieprzewidywalne mogą być konsekwencje stosowania AI w prawie. W opinii prawników pozwalających decyzja sądu wzmacnia ich stanowisko o niekonstytucyjności prawa.
Przepisy w innych stanach
Podobne prawa dotyczące „deepfake’ów” wprowadzono również w Kalifornii, gdzie są one również przedmiotem postępowań sądowych. Przeciwnicy regulacji, w tym firma X Corp i satyryczna witryna Babylon Bee, argumentują, że przepisy naruszają prawa konstytucyjne. Procesy te mogą mieć wpływ na przyszłe regulacje dotyczące treści generowanych przez AI. Spór ten budzi coraz większe zainteresowanie opinii publicznej oraz ekspertów od wolności słowa.