Zwiń

Nie masz konta? Zarejestruj się

Nowy system Google. Sztuczna inteligencja i technofaszyzm

Łukasz Olejnik
Ten tekst przeczytasz w 3 minuty
Teoretycznie w Europie RODO ma skłaniać technologie do respektowania wartości europejskich, ale pewnie nikt o tym nie wie
Teoretycznie w Europie RODO ma skłaniać technologie do respektowania wartości europejskich, ale pewnie nikt o tym nie wie
fot. Tero Vesalainen/Shutterstock
ShutterStock

Piszesz na smartfonie, a tam wyskakuje okienko: „Hej! Czy na pewno chcesz to robić? Przepraszam, ale nie mogę na to pozwolić, usuwam te treści. Dla Twojego dobra informuję Państwową Komisję Prawomyślności, inspektora bhp, Państwową Inspekcję Pracy, Straż Pożarną, policję i Poradnię Zdrowia Psychicznego, gdzie masz wizytę na jutro o 8:00, przyjdź na czczo”. Model AI wykrył, że podejmowane działania mogą być nie do przyjęcia wobec uznanych przez kogoś standardów. Może były złe, nienawistne, dezinformujące. A może tylko dotyczyły rzeczy, o których ktoś uznał, że nie należy w taki sposób mówić. Asystent sztucznej inteligencji uratował dzień – nie doszło do propagacji nieprawomyślnych treści przez tego konkretnego obywatela.

To szczęśliwie scenariusz fikcyjny, ale Google wprowadza system oparty na modelu AI zaprojektowany do ostrzegania użytkowników Androida przed oszustwami telefonicznymi. Działający lokalnie na urządzeniu model analizuje rozmowy, aby wykryć podejrzane schematy językowe. To jednoznacznie dobre – pomoże uchronić ludzi przed oszustwami. W dodatku zachowana jest prywatność – dane pozostają na smartfonie użytkownika, nie są nigdzie przesyłane. Ta wspaniała innowacja ma na celu poprawę bezpieczeństwa. Ale rodzi również pytania o potencjalne zagrożenia związane z ingerencją AI w codzienne życie. W miarę jak modele AI są integrowane z oprogramowaniem i systemami operacyjnymi naszych smartfonów i komputerów, takich pytań będzie więcej. Wkrótce swoje propozycje integracji AI z oprogramowaniem prezentuje Microsoft i Apple. Z moich informacji wynika, że będą bardzo znaczące.

Wyobraźmy sobie przyszłość, w której AI monitoruje nie tylko rozmowy telefoniczne, lecz także nasze wiadomości tekstowe, e-maile i posty w mediach społecznościowych. Technologia taka mogłaby wykrywać i blokować treści uznane za szkodliwe, nielegalne lub nieprawomyślne. Wyobraźmy sobie, że system taki wdrożono, ponieważ światli reprezentanci narodów Ameryki i państw europejskich, głosujący w wyborach w 2024 r., uchwalili prawo wymagające od firm technologicznych modulacji zachowań społecznych. Precedens już jest – w tej kadencji Komisji Europejskiej opracowano prawo wymagające skanowania tego, co wysyłamy za pomocą komunikatorów, w poszukiwaniu treści nielegalnych i wykorzystujących dzieci, zatem dla ich dobra. Budowa takiej infrastruktury i praw jest jednak zawsze ryzykowna. Gdy to raz zostanie znormalizowane, zbudowane, wdrożone, wymagane prawnie – powstanie pokusa, by te działania poszerzać. Widzieliśmy w tej kadencji KE, jak w cudowny sposób rozmnożyły się regulacje dotyczące Zielonego Ładu, a nikt nie zapowiadał tego w poprzedniej kampanii wyborczej do Parlamentu Europejskiego.