ChatGPT – ryzyko czy zysk dla wartości europejskich?

Na temat ChatGPT mówi się wszędzie. Wcwielu artykułach omawia się, czy stanowi większe ryzyko, czy korzyść. Włochy tymczasowo go zakazały, co zapoczątkowało krytyczną ocenę wielu władz. Przede wszystkim jednak ChatGPT to narzędzie do przetwarzania codziennego języka, oparte na technologii sztucznej inteligencji, które umożliwia prowadzenie rozmów na poziomie ludzkim.Zasadniczo zmieniło sposób, w jaki szukamy informacji i jak je tworzymy.

Pojawienie się sztucznej inteligencji (AI) wiąże się z szeregiem zagrożeń, którymi należy się zająć i którym należy stawić czoła. Sztuczna inteligencja może odegrać kluczową rolę w manipulowaniu informacjami, wpływaniu na politykę i obalaniu systemów wartości, które stanowią fundament społeczeństwa lub kraju. W tym względzie wypaczone wykorzystanie sztucznej inteligencji mogłoby doprowadzić do wzrostu antyeuropejskości i wzmocnienia ruchów populistycznych, których celem jest zniszczenie projektu Unii Europejskiej. Wyobraźmy sobie na przykład zaprogramowaną aplikację, która natychmiast generuje nieskończoną liczbę artykułów ujawniających fałszywe informacje lub wyobraźmy sobie oprogramowanie manipulujące zdjęciami i filmami – wszystkie te rzeczy już istnieją i mogą stanowić wyzwanie dla tradycyjnych mediów, których zarówno twórcą, jak i odbiorcą jest człowiek. Ale pytanie, czy media powinny ścigać sztuczną inteligencję?

Oto niektóre z głównych zagrożeń związanych ze stosowaniem sztucznej inteligencji oraz kilka porad, jak je złagodzić. Spójrzmy:

1. Prywatność

Jednym z kluczowych aspektów, które należy wziąć pod uwagę, jest prywatność i ochrona danych. Masowe gromadzenie wrażliwych informacji może zagrozić prawom jednostki gwarantowanym przez Unię Europejską, zgodnie z ogólnym rozporządzeniem o ochronie danych (RODO). Niezbędne jest zapewnienie korzystania ze sztucznej inteligencji zgodnie z przepisami dotyczącymi prywatności oraz podjęcie odpowiednich środków w celu ochrony danych osobowych. W tym kontekście warto wspomnieć o niedawnym przypadku we Włoszech. Włoski Urząd Ochrony Danych (Garante per la Protezione dei Dati Personali) nałożył natychmiastowe tymczasowe ograniczenie przetwarzania danych włoskich użytkowników przez OpenAI, amerykańską firmę, która opracowała i zarządza platformą ChatGPT. 20 marca w oprogramowaniu sztucznej inteligencji doszło do naruszenia danych obejmujących rozmowy użytkowników oraz informacje związane z płatnością za usługę abonamentową. Garante zawiesił usługę we Włoszech po wykryciu braku informacji udostępnianych użytkownikom i wszystkim osobom, których dane gromadzi OpenAI. Ponadto Garante podkreślił brak podstawy prawnej uzasadniającej masowe gromadzenie i przechowywanie danych osobowych w celu „szkolenia” algorytmów leżących u podstaw funkcjonowania platformy.

Ponadto, jak wynika z przeprowadzonych dochodzeń, informacje przekazywane przez ChatGPT nie zawsze odpowiadały rzeczywistym danym, co skutkowało niedokładnym przetwarzaniem danych osobowych. Dodatkowo, mimo że usługa przeznaczona jest dla użytkowników powyżej 13. roku życia, włoski urząd podkreślił brak jakiegokolwiek filtra weryfikacji wieku, co narażało nieletnich na komunikaty całkowicie nieadekwatne do ich poziomu rozwoju i samoświadomości.

28 kwietnia, po częściowym spełnieniu żądań organu ds. ochrony prywatności, ChatGPT reaktywowała swoje usługi we Włoszech. Kto wygrał to starcie? Warto przyjrzeć się sprawie i zastanowić się, jak w naszych krajach dyskutuje się o AI.

2. Discrimination and Bias

Na sztuczną inteligencję mogą wpływać uprzedzenia i dyskryminacja, jeśli nie zostanie ona odpowiednio rozwinięta i przeszkolona. Systemy sztucznej inteligencji mogą uczyć się na podstawie danych historycznych, które odzwierciedlają istniejące nierówności i uprzedzenia w społeczeństwie. Może to prowadzić do dyskryminacyjnych decyzji lub wykluczenia określonych grup osób. Na przykład, jeśli system rekrutacji oparty na sztucznej inteligencji zostanie przeszkolony na podstawie danych historycznych, które wykazują tendencję do selekcji kandydatów określonej płci lub pochodzenia etnicznego, system może utrwalić te nierówności w przyszłych procesach selekcji. Ten rodzaj dyskryminacji algorytmicznej może mieć poważne konsekwencje, takie jak nierówny dostęp do możliwości zatrudnienia, kredytów finansowych lub usług publicznych.

Unia Europejska powinna promować regulacje wymagające przejrzystości i odpowiedzialności we wdrażaniu sztucznej inteligencji, aby uniknąć takich sytuacji. Niezwykle istotne jest rozwiązanie tego problemu poprzez etyczne projektowanie i szkolenie systemów sztucznej inteligencji. Odpowiedzialność organizacji opracowujących i wdrażających sztuczną inteligencję, a także odpowiednie regulacje wprowadzane przez właściwe organy, mają kluczowe znaczenie dla ograniczenia ryzyka dyskryminacji i stronniczości w korzystaniu ze sztucznej inteligencji. Warto przyjrzeć się europejskiej polityce AI, która jest zasadniczym krokiem w kierunku skierowania ogromnej mocy AI w Europie i dania przykładu światu.

3. Bezrobocie i skutki społeczne

Automatyzacja napędzana sztuczną inteligencją może doprowadzić do znaczących przemian na rynku pracy, potencjalnie skutkując utratą tradycyjnych miejsc pracy. Wprowadzenie zaawansowanej robotyki i systemów sztucznej inteligencji mogłoby zmniejszyć zapotrzebowanie na pracowników w sektorach takich jak produkcja, transport, logistyka i wielu innych. Wpływ tej transformacji będzie zależał od różnych czynników, w tym od tempa wdrażania sztucznej inteligencji, szybkości automatyzacji oraz zdolności ludzi do adaptacji i zdobywania nowych umiejętności. Może to spowodować nierówności gospodarcze i społeczne, jeśli nie zostaną wdrożone odpowiednie rozwiązania umożliwiające zarządzanie tą transformacją.

Unia Europejska powinna skupić się na edukacji, przekwalifikowaniu zawodowym i tworzeniu miejsc pracy w sektorze sztucznej inteligencji, aby złagodzić negatywny wpływ na zatrudnienie. Automatyzacja napędzana sztuczną inteligencją może przekształcić różne sektory i procesy pracy, zastępując pracę ludzką inteligentnymi maszynami.

Uwagi

Konieczne jest wdrożenie działań, które zapobiegną powstaniu wysokiego bezrobocia. Polityka europejska musi zatem działać poprzez zapewnienie programów szkoleniowych dla pracowników i informowanie obywateli o nowych możliwościach zatrudnienia, które się otwierają, oraz gwarantować programy ochrony socjalnej tym, którzy nie mogą od razu znaleźć nowej pracy. Ponadto Unia Europejska będzie musiała interweniować, aby powstrzymać negatywne skutki manipulacji publicznej (dla pogłębienia polecamy także wystąpienia Davida Tozzo i Lorenzo Fattoriego przy okazji Międzynarodowej Konferencji „Media w dobie populizmu i polaryzacji”), inwestując w program dobrych praktyk, który pozwala ludziom otrzymywać rzetelne informacje. Te działania sprawią, że obywatele będą świadomi nowych możliwości w zakresie cyfrowego zatrudnienia i będą w stanie je wykorzystać dzięki nabytym umiejętnościom. Co więcej, aktywna polityka pracy, systemy ochrony socjalnej oraz zdobywanie wiedzy w celu przeciwdziałania dezinformacji pozwolą uniknąć ryzyka kryzysu gospodarczego oraz polityki i polityki społecznej, który mógłby przyczynić się do dramatycznego rozwoju ruchów politycznych, mających na celu zniszczenie wartości europejskich.

Podsumowując, sztuczna inteligencja musi być bezpiecznie stosowana w Unii Europejskiej, ale musi być rozwijana w sposób przejrzysty i zgodny z zasadami demokracji. Oznacza to, że użytkownicy wykorzystujący programy takie jak ChatGPT muszą być informowani w przejrzysty sposób o prawidłowym korzystaniu z algorytmu, o procedurach ochrony danych osobowych oraz o prawdziwości przekazywanych informacji.

Wspierając współpracę między rządami, instytucjami edukacyjnymi, przedsiębiorstwami i społeczeństwem obywatelskim oraz wdrażając ukierunkowane polityki i przepisy, Unia Europejska może sprostać wyzwaniom stawianym przez sztuczną inteligencję, maksymalizując jednocześnie płynące z niej korzyści. Niezwykle istotne jest zapewnienie, aby rozwój i wykorzystanie technologii sztucznej inteligencji było zgodne z zasadami etycznymi, wartościami społecznymi oraz dobrostanem jednostek i społeczności. Dzięki odpowiedzialnym rozwiązaniom w zakresie sztucznej inteligencji możemy wykorzystać potencjał sztucznej inteligencji, jednocześnie łagodząc jej negatywne skutki oraz wspierając sprawiedliwą i godziwą przyszłość.

Źródła:

Zdjęcie w nagłówku opracowane przez Dall-E, jako odpowiedź na hasło: „Zrób ilustrację popową przedstawiającą portret sztucznej inteligencji jako androida w kolorach i gwiazdach euro”.

ChatGPT banned in Italy over privacy concerns, BBC, https://www.bbc.com/news/technology-65139406

Artificial intelligence: stop to ChatGPT by the Italian SA. Personal data is collected unlawfully, no age verification system is in place for children, GarantePrivacy, https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847

A European approach to artificial intelligence, European Commission, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

Media in the age of populism and polarization, We-Europeans project, https://www.youtube.com/watch?v=BLGZid0WB-I&t=535s

General Data Protection Regulation (GDPR), Intersoft consulting, https://gdpr-info.eu/

ChatGPT – ryzyko czy zysk dla wartości europejskich?
Przewiń na górę