ChatGPT w języku polskim
ChatGPT Polska

Kontrowersje Wokół AI w Sprawie „Deepfake”

Sędzia federalny w Minnesocie zakazał korzystania z opinii eksperta, który w swojej deklaracji użył fałszywych cytatów wygenerowanych przez sztuczną inteligencję. Sprawa dotyczy prawa zakazującego używania "deepfake'ów" w kampaniach wyborczych. Przypadek ten podkreśla rosnące obawy związane z wiarygodnością treści generowanych przez AI. W tle pozostaje pytanie, jak daleko mogą sięgać regulacje prawne dotyczące tej technologii.
Kontrowersje wokół AI w sprawie _deepfake

Sąd krytykuje użycie AI

Sędzia Laura Provinzino z federalnego sądu w Minnesocie wydała decyzję, która wyklucza opinię eksperta Jeffa Hancocka z postępowania. Hancock, profesor z Uniwersytetu Stanforda, przyznał, że korzystał z ChatGPT-4 podczas tworzenia swojego raportu. W związku z tym sąd uznał, że fałszywe cytaty podważają zaufanie do opinii eksperta. To zdarzenie pokazuje, jak niebezpieczne może być nieświadome poleganie na sztucznej inteligencji w ważnych kwestiach prawnych.

Ironia w sprawie dotyczącej AI

Provinzino zauważyła, że sytuacja jest ironiczna, ponieważ Hancock, ekspert od dezinformacji i zagrożeń związanych z AI, sam padł ofiarą nadmiernego zaufania do tej technologii. Sprawa dotyczy prawa, które ma na celu ochronę przed dezinformacją związaną z „deepfake’ami”. Ostatecznie eksperta, który miał pomóc w walce z dezinformacją, skompromitowała właśnie ta technologia. Zdarzenie to zwróciło uwagę na problem tzw. „halucynacji” AI, czyli generowania nieprawdziwych informacji przez modele językowe.

Ekspert wykluczony z postępowania

Decyzja sądu wyklucza Hancocka jako eksperta w tej sprawie. Sędzia odrzuciła również możliwość poprawienia jego wcześniejszej deklaracji. To oznacza, że stanowisko obrony zostało znacząco osłabione. Dla środowiska prawnego przypadek ten jest sygnałem ostrzegawczym przed korzystaniem z AI bez odpowiednich procedur weryfikacji.

Prawo o „deepfake’ach” w Minnesocie

Prawo, wprowadzone w Minnesocie w 2023 roku, zakazuje używania „deepfake’ów” w celu wpływania na wybory. Przepisy te są kwestionowane jako niezgodne z konstytucją przez republikańską posłankę Mary Franson oraz satyryka Christophera Kohlsa. Krytycy twierdzą, że regulacje te mogą ograniczać wolność artystyczną i satyrę polityczną. To kolejny przykład konfliktu między technologią a wolnościami obywatelskimi.

Satyrzyści przeciwko regulacjom AI

Kohls, znany jako „Mr Reagan”, stworzył parodię, która przedstawiała fałszywy spot wyborczy Kamali Harris. Nagranie opublikowano na platformie X, a następnie udostępnił je właściciel serwisu, Elon Musk. Przeciwnicy prawa twierdzą, że ogranicza ono możliwość tworzenia parodii politycznych. Sprawa może stanowić precedens w kontekście swobody wypowiedzi w epoce cyfrowej.

Reakcje na decyzję sądu

Adwokat strony powodowej, Doug Seaton, stwierdził, że decyzja sądu potwierdza, iż opinia eksperta była „czystą dezinformacją AI”, wygenerowaną za pomocą narzędzia ChatGPT OpenAI. Sąd wykluczył możliwość „naprawienia” raportu przez Hancocka, co stanowi poważny cios dla obrony. Dla wielu obserwatorów jest to dowód na to, jak nieprzewidywalne mogą być konsekwencje stosowania AI w prawie. W opinii prawników pozwalających decyzja sądu wzmacnia ich stanowisko o niekonstytucyjności prawa.

Przepisy w innych stanach

Podobne prawa dotyczące „deepfake’ów” wprowadzono również w Kalifornii, gdzie są one również przedmiotem postępowań sądowych. Przeciwnicy regulacji, w tym firma X Corp i satyryczna witryna Babylon Bee, argumentują, że przepisy naruszają prawa konstytucyjne. Procesy te mogą mieć wpływ na przyszłe regulacje dotyczące treści generowanych przez AI. Spór ten budzi coraz większe zainteresowanie opinii publicznej oraz ekspertów od wolności słowa.