Home Na czasie Etyczne wykorzystanie danych podstawą rozwoju rynku AI

Etyczne wykorzystanie danych podstawą rozwoju rynku AI

0
0
105

Rynek GAI (Generative AI) – wyszkolonej na dużych zbiorach danych sztucznej inteligencji — do 2030 roku będzie rósł w tempie 34 proc. rok do roku, osiągając wartość 110 mld USD[1]. Eksperci SAS przypominają, jakie zagrożenia wiążą się z nieodpowiednim wykorzystaniem technologii tworzącej treści audiowizualne, graficzne i tekstowe, uświadamiając biznes, rządy i instytucje międzynarodowe, dlaczego stworzenie ram regulujących etyczne wykorzystanie danych powinno być priorytetem.

Dane pod kontrolą

Etyka danych jest szczególnie istotna jeśli weźmie się pod uwagę ilość informacji przetwarzanych przez algorytmy. Wg McKinsey & Company model GPT-3 został wytrenowany na około 45 terabajtach danych tekstowych. To około 30 kilometrów powierzchni półek z książkami lub równowartość półtora wszystkich zbiorów Biblioteki Uniwersyteckiej w Warszawie. Jednak trzeba mieć świadomość, skąd pochodzą treści, na podstawie których działają algorytmy. Firmy gromadzą je ze zróżnicowanych źródeł, systemów i dostawców. W tym celu tworzone są tzw. jeziora danych (ang. data lakes), aby przechowywać informacje o klientach i ich zachowaniach. Terabajty danych konsumenckich kryją w sobie ogromny potencjał, zwłaszcza przy wykorzystaniu odpowiedniej technologii do odkrywania wzorców, zależności i ich analizy. Dlatego potrzebne jest etyczne podejście do tworzenia algorytmów, tak aby dane te mogły zostać użyte tylko w sposób niosący korzyści dla społeczeństwa.

– Wielka moc wymaga wielkiej odpowiedzialności. Najważniejsze jest uświadomienie sobie, że wszyscy tworzymy i konsumujemy dane. Każdy z nas musi być odpowiedzialny za ich etyczne wykorzystanie. Pierwszym krokiem jest zwiększenie ogólnej świadomości na temat zagadnień związanych z etyką danych wewnątrz organizacji. Następnie, poprzez współpracę biznesu z rządami oraz organizacjami powinniśmy doprowadzić do opracowania systemowych rozwiązań i regulacji, które zagwarantują, że algorytmy, jak każde inne narzędzie będą wykorzystywane w odpowiedzialny sposób, a efekty ich działania będą w pełni wytłumaczalne – powiedział Piotr Rozenbajgier, Data Science & Engineering Lead w SAS.

Jasne zasady i regulacje

Zdaniem ekspertów SAS polityka i regulacje związane z AI powinny skupiać się na danych, które leżą u podstaw algorytmów. Kluczowe jest, aby firmy budujące innowacje oparte na sztucznej inteligencji zadbały o ich etyczne gromadzenie oraz wykorzystanie. Organizacje powinny kierować się jasnymi zasadami w tym obszarze. Należy też zwrócić uwagę na konieczność zróżnicowania przepisów. Branże silnie regulowane – takie jak usługi finansowe czy opieka zdrowotna – mają inne priorytety w zakresie przetwarzania i ochrony posiadanych danych. Przykładowo, w bankowości podstawowym celem nie tylko ze względów etycznych, ale i biznesowych będzie zapobieganie wyłudzeniom oraz uniknięcie dyskryminacji klientów.

– Organizacje zmagają się z rozpoczęciem „projektów” etyki danych. Teoria jest znacznie łatwiejsza niż praktyka, szczególnie w przypadku korporacji. Duże firmy mają więcej problemów związanych z danymi, ponieważ filozofia zastosowania informacji nie jest jednolita w całej organizacji. Nie powinniśmy traktować na tym samym poziomie danych pochodzących z urządzeń IoT z domu, co danych medycznych czy finansowych. Rzeczywistość jest taka, że nie wiemy, jak te zbiory zostaną wykorzystywane w przyszłości. Wystarczy wyobrazić sobie, że wykorzystujemy dane pochodzące z inteligentnych piekarników i lodówek do badania nawyków żywieniowych pod kątem ubezpieczeń na życie. Proste dane szybko stają się bardzo wrażliwe. Dlatego tak ważne jest, aby postępować z nimi w sposób etyczny – kontynuuje Piotr Rozenbajgier.

Stworzenie jednakowych ram i regulacji wymaga jednak wspólnego wysiłku twórców i użytkowników AI, a także decydentów, naukowców, badaczy i organizacji społecznych. Firma SAS proponuje rozważenie modelu opartego na zasadach humanocentryczności, przejrzystości, prywatności, bezpieczeństwa, inkluzyjności i odpowiedzialności jako punkt wyjścia dla odpowiedzialnego wykorzystania rozwiązań Generative AI.

[1] Acumen Research and Consulting

Dodaj komentarz

Przeczytaj również

Kradzieże haseł i przejmowanie zdalnego pulpitu

Wykorzystanie zewnętrznych usług zdalnych to najczęstsza stosowana przez hakerów metoda do…