Na czasieEtyczne wykorzystanie danych podstawą rozwoju rynku AI > redakcja Opublikowane 15 marca 20230 0 110 Podziel się Facebook Podziel się Twitter Podziel się Google+ Podziel się Reddit Podziel się Pinterest Podziel się Linkedin Podziel się Tumblr Rynek GAI (Generative AI) – wyszkolonej na dużych zbiorach danych sztucznej inteligencji — do 2030 roku będzie rósł w tempie 34 proc. rok do roku, osiągając wartość 110 mld USD[1]. Eksperci SAS przypominają, jakie zagrożenia wiążą się z nieodpowiednim wykorzystaniem technologii tworzącej treści audiowizualne, graficzne i tekstowe, uświadamiając biznes, rządy i instytucje międzynarodowe, dlaczego stworzenie ram regulujących etyczne wykorzystanie danych powinno być priorytetem.Dane pod kontroląEtyka danych jest szczególnie istotna jeśli weźmie się pod uwagę ilość informacji przetwarzanych przez algorytmy. Wg McKinsey & Company model GPT-3 został wytrenowany na około 45 terabajtach danych tekstowych. To około 30 kilometrów powierzchni półek z książkami lub równowartość półtora wszystkich zbiorów Biblioteki Uniwersyteckiej w Warszawie. Jednak trzeba mieć świadomość, skąd pochodzą treści, na podstawie których działają algorytmy. Firmy gromadzą je ze zróżnicowanych źródeł, systemów i dostawców. W tym celu tworzone są tzw. jeziora danych (ang. data lakes), aby przechowywać informacje o klientach i ich zachowaniach. Terabajty danych konsumenckich kryją w sobie ogromny potencjał, zwłaszcza przy wykorzystaniu odpowiedniej technologii do odkrywania wzorców, zależności i ich analizy. Dlatego potrzebne jest etyczne podejście do tworzenia algorytmów, tak aby dane te mogły zostać użyte tylko w sposób niosący korzyści dla społeczeństwa.– Wielka moc wymaga wielkiej odpowiedzialności. Najważniejsze jest uświadomienie sobie, że wszyscy tworzymy i konsumujemy dane. Każdy z nas musi być odpowiedzialny za ich etyczne wykorzystanie. Pierwszym krokiem jest zwiększenie ogólnej świadomości na temat zagadnień związanych z etyką danych wewnątrz organizacji. Następnie, poprzez współpracę biznesu z rządami oraz organizacjami powinniśmy doprowadzić do opracowania systemowych rozwiązań i regulacji, które zagwarantują, że algorytmy, jak każde inne narzędzie będą wykorzystywane w odpowiedzialny sposób, a efekty ich działania będą w pełni wytłumaczalne – powiedział Piotr Rozenbajgier, Data Science & Engineering Lead w SAS.Jasne zasady i regulacjeZdaniem ekspertów SAS polityka i regulacje związane z AI powinny skupiać się na danych, które leżą u podstaw algorytmów. Kluczowe jest, aby firmy budujące innowacje oparte na sztucznej inteligencji zadbały o ich etyczne gromadzenie oraz wykorzystanie. Organizacje powinny kierować się jasnymi zasadami w tym obszarze. Należy też zwrócić uwagę na konieczność zróżnicowania przepisów. Branże silnie regulowane – takie jak usługi finansowe czy opieka zdrowotna – mają inne priorytety w zakresie przetwarzania i ochrony posiadanych danych. Przykładowo, w bankowości podstawowym celem nie tylko ze względów etycznych, ale i biznesowych będzie zapobieganie wyłudzeniom oraz uniknięcie dyskryminacji klientów.– Organizacje zmagają się z rozpoczęciem „projektów” etyki danych. Teoria jest znacznie łatwiejsza niż praktyka, szczególnie w przypadku korporacji. Duże firmy mają więcej problemów związanych z danymi, ponieważ filozofia zastosowania informacji nie jest jednolita w całej organizacji. Nie powinniśmy traktować na tym samym poziomie danych pochodzących z urządzeń IoT z domu, co danych medycznych czy finansowych. Rzeczywistość jest taka, że nie wiemy, jak te zbiory zostaną wykorzystywane w przyszłości. Wystarczy wyobrazić sobie, że wykorzystujemy dane pochodzące z inteligentnych piekarników i lodówek do badania nawyków żywieniowych pod kątem ubezpieczeń na życie. Proste dane szybko stają się bardzo wrażliwe. Dlatego tak ważne jest, aby postępować z nimi w sposób etyczny – kontynuuje Piotr Rozenbajgier.Stworzenie jednakowych ram i regulacji wymaga jednak wspólnego wysiłku twórców i użytkowników AI, a także decydentów, naukowców, badaczy i organizacji społecznych. Firma SAS proponuje rozważenie modelu opartego na zasadach humanocentryczności, przejrzystości, prywatności, bezpieczeństwa, inkluzyjności i odpowiedzialności jako punkt wyjścia dla odpowiedzialnego wykorzystania rozwiązań Generative AI.[1] Acumen Research and Consulting
Cyberzagrożenia i dezinformacja to główne źródła niepokoju na świecie. Obawy Polaków powyżej średniej