05
grudzień
Narzędzia oparte na sztucznej inteligencji są już powszechnie wykorzystywane zarówno w sektorze prywatnym, jak i publicznym do tworzenia lepszych produktów, usług, obniżania kosztów czy uwalniania pracowników od rutynowych prac administracyjnych.
Rozwiązania bazujące na AI niosą ze sobą wiele szans i możliwości, warto jednak pamiętać o potencjalnych zagrożeniach wiążących się z tą technologią. Szczególnymi obszarami, które znalazły się pod lupą dostawców, użytkowników i organów regulacyjnych są ochrona prywatności i bezpieczeństwo danych.
Globalny raport KPMG „Privacy in the new world of AI‘’ analizuje wpływ powszechnego stosowania sztucznej inteligencji na prywatność. Aby dowiedzieć się więcej na ten temat zachęcamy do zapoznania się z polską analizą raportu oraz z pełną treścią globalnej publikacji.
Więcej informacji pod linkiem. Według „KPMG global tech report 2023” liderzy technologiczni uważają sztuczną inteligencję i uczenie maszynowe za najważniejszą technologię do osiągnięcia swoich celów biznesowych w najbliższym czasie. Jednak podobnie jak w przypadku każdej nowej technologii, diagnozowane są również ryzyka. Niepokój respondentów widać zarówno we wspomnianym wyżej globalnym badaniu, jak i w przeprowadzonym kilka miesięcy temu przez KPMG w Australii „Trust in artificial intelligence”.
Powszechne i nieuregulowane wykorzystanie sztucznej inteligencji budzi też pytania o jej wpływ na prawa człowieka i prywatność. Algorytmy są nieprzewidywalne, złożone i trudne do wyjaśnienia. Biorąc pod uwagę ich zastrzeżony charakter brakuje im przejrzystości, a wyniki generowane przez AI powstają w oparciu o przetwarzanie na dużą skalę danych z Internetu, zwiększając ryzyko wycieku poufnych informacji i naruszenia prawnie chronionych danych osobowych. Aby firmy mogły maksymalnie wykorzystywać potencjał sztucznej inteligencji, potrzebują być na bieżąco z informacjami na temat wpływu AI na prywatność i bezpieczeństwo danych.
„KPMG global tech report 2023”, KPMG International, 2023.
„Trust in artificial intelligence”, The University of Queensland i KPMG Australia, 2023.
Unia Europejska podejmuje pierwszą na świecie próbę ustanowienia przepisów, które mogą okazać się najbardziej surowymi regulacjami dotyczącymi ochrony prywatności użytkowników AI. Rada, Parlament i Komisja Europejska zaproponowały ustawę o sztucznej inteligencji (EU AI Act). Dokument opiera się na przepisach dotyczących prywatności zawartych w ogólnym rozporządzeniu o ochronie danych osobowych (RODO), które obejmują zasady dotyczące otwartości, uczciwości, algorytmicznego podejmowania decyzji i godności ludzkiej. Już w 2019 roku Organizacja Współpracy Gospodarczej i Rozwoju (OECD) opierając się na tych zasadach stworzyła podstawy zarządzania godną zaufania sztuczną inteligencją, które stanowią, że systemy AI powinny być niezawodne i bezpieczne przez cały cykl życia. EU AI Act dodatkowo wzmacnia te zasady nakazując, aby sztuczna inteligencja spełniała wspomniane warunki pod względem prawnym, etycznym i technicznym, przy jednoczesnym poszanowaniu wartości demokratycznych, praw człowieka i praworządności. Wiele z zasad OECD dotyczących sztucznej inteligencji można przyporządkować do zasad zabezpieczania prywatności w kontekście ochrony danych osobowych i rozszerzyć na zasady privacy by design, czyli uwzględnienie ochrony danych osobowych już w fazie projektowania. Przyjęcie tego podejścia może wzmocnić poczucie pewności klientów, organów regulacyjnych i innych zainteresowanych stron o wiarygodności sztucznej inteligencji oraz zminimalizować wszelkie negatywne skutki wynikające z jej funkcjonowania.
Źródło: KPMG Advisory spółka z ograniczoną odpowiedzialnością spółka komandytowa
Najnowsze wpisy