Home Na czasie Czy sztuczna inteligencja ma przed sobą świetlaną przyszłość?

Czy sztuczna inteligencja ma przed sobą świetlaną przyszłość?

0
0
75

Pod względem etyki i zrównoważonego rozwoju szybki rozwój sztucznej inteligencji wymaga silnych wytycznych. Obecne podejście polegające na konkurowaniu za wszelką cenę, które stawia firmy przeciwko sobie w wyścigu o kolejny duży kamień milowy w dziedzinie sztucznej inteligencji, raczej hamuje postęp niż go wspiera.

Przełomowe udostępnienie ChatGPT przez OpenAI oraz szybka reakcja Bing Microsoftu i Bard Google stworzyły swoisty wyścig zbrojeń AI, który sprowokował pojawienie się wielu katastroficznych przepowiedni wśród czołowych technologów, decydentów i opinii publicznej.

Liderzy opinii w dziedzinie sztucznej inteligencji coraz częściej biją na alarm, wzywając do spowolnienia jej rozwoju w celu przerwania tego toksycznego cyklu. Ostatnio niektóre z najbardziej znanych głosów w branży wezwały do natychmiastowej sześciomiesięcznej przerwy w szkoleniu systemów AI, a nawet ostrzegły, że niekontrolowany postęp AI może spowodować zagrożenie wyginięcia człowieka.

Nokia wierzy, że sztuczna inteligencja może być pozytywną siłą dla społeczeństwa wtedy i tylko wtedy, gdy jest rozwijana i wdrażana we współpracy i w sposób etyczny. Oznacza to budowanie społeczności, która ma wspólne wartości i rozmawia ze sobą o technologiach, które niosą ze sobą daleko idące konsekwencje. Uwolniłoby to cały pozytywny potencjał sztucznej inteligencji, taki jak demokratyzacja dostępu do opieki zdrowotnej i edukacji, usprawnienie operacji przemysłowych, odblokowanie wydajności sieci, ochrona zasobów środowiskowych i stworzenie ogólnie bardziej sprawiedliwego, zrównoważonego i równego społeczeństwa.

Czemu nie możemy być przyjaciółmi?

Zanim udostępnimy tak potężne technologie, musimy się zjednoczyć jako branża. Zaczyna się to od współpracy podmiotów branżowych w celu zapewnienia odpowiedzialnego tworzenia takich systemów. Dzieląc się wiedzą i najlepszymi praktykami, możemy tworzyć systemy sztucznej inteligencji, które są niezawodne, godne zaufania i obiektywne.

Rozwój tego typu technologii nie jest łatwym zadaniem i wymaga znacznych inwestycji w badania i rozwój. Właśnie dlatego łączenie zasobów i wiedzy jest niezbędne, aby napędzać innowacje i przybliżać nas do naszych celów. Pokazując nasze zaangażowanie w etyczne i społecznie odpowiedzialne praktyki, możemy zdobyć zaufanie szerszej opinii publicznej. Ma to kluczowe znaczenie w dzisiejszych czasach, w których obawy dotyczące wykorzystania technologii sztucznej inteligencji są głębokie.

Aby to zrobić, musimy przyjąć podejście świadomej odpowiedzialności. Wiąże się to z identyfikacją i ograniczaniem ryzyka, zanim stanie się ono problematyczne. Przykładowo, podczas opracowywania i wdrażania technologii sztucznej inteligencji, zasady odpowiedzialnego projektowania, takie jak przejrzystość, odpowiedzialność biznesowa i inkluzywność, mogą zapobiec tworzeniu stronniczych lub dyskryminujących systemów. Nadając priorytet prywatności użytkowników i bezpieczeństwu danych, możemy projektować systemy, które ograniczają gromadzenie i wykorzystywanie danych osobowych do tego, co jest konieczne i właściwe. Musimy nalegać na taką odpowiedzialność w pierwszej kolejności, a nie w ostateczności, abyśmy nie byli zmuszeni do późniejszego gaszenia pożarów, które stworzyliśmy. Te fundamentalne zasady znajdują się w centrum badań Nokia Bell Labs.

Dla przykładu, przeanalizowaliśmy ograniczenia dominującej metody list kontrolnych w celu utrzymania wytycznych dotyczących etyki w rozwoju sztucznej inteligencji. Zamiast niej opowiadamy się za bardziej interaktywnym i przyjaznym dla użytkownika podejściem do kart podpowiedzi, które wykorzystuje system o nazwie AI Design. Innowacja ta została opracowana wspólnie przez zróżnicowaną grupę ekspertów, w tym twórców sztucznej inteligencji, inżynierów, organy regulacyjne, liderów biznesu i specjalistów ds. standaryzacji. Usprawnia ona proces rozwoju etycznej sztucznej inteligencji, dostarczając programistom szereg najlepszych praktyk i technik oraz skłaniając ich do myślenia z wyobraźnią i rozważania sprzecznych wymagań, takich jak sprawiedliwość i prywatność.

Nasi badacze zaprezentowali tę inicjatywę w kwietniu na tegorocznej konferencji Human-Computer Interaction (CHI) w Hamburgu. Współpracując z 12 światowej sławy ekspertami z uniwersytetów i firm takich jak Microsoft, Google, Meta i IBM, poprowadziliśmy przełomową sesję poświęconą odpowiedzialnej sztucznej inteligencji.

Badacze uczestniczyli również w konferencjach, na których analizowano, w jaki sposób etyka kształtuje rozwój sztucznej inteligencji. Członkowie zespołu na innych wydarzeniach poświęconych godnej zaufania i odpowiedzialnej sztucznej inteligencji, zaprezentowali nasze narzędzie do projektowania sztucznej inteligencji, oraz generatywnej SI, badając, w jaki sposób wpływa ono na to, jak tworzymy, projektujemy i wchodzimy w interakcje z otaczającym nas światem.

Przedstawiliśmy również artykuł na konferencji ACM na temat sprawiedliwości, odpowiedzialności i przejrzystości o tym, jak badania naukowe były nieproporcjonalnie oparte na analizach przeprowadzonych w krajach zachodnich, wykształconych, uprzemysłowionych, bogatych i demokratycznych, dając wyniki, które mogłyby być nietypowe dla większej populacji świata i mogą nie odzwierciedlać dokładnie ludzkich zachowań.

Aktywnie angażując się w takie sesje z naszymi kolegami na całym świecie, Nokia Bell Labs ma nadzieję na wprowadzenie świadomej odpowiedzialności na pierwszy plan badań nad sztuczną inteligencją.

Regulacje

Istnieją dwa kluczowe aspekty w rozważaniu wyzwań regulacyjnych, przed którymi stoimy. Po pierwsze, konieczne jest, abyśmy sami podjęli inicjatywę regulacyjną, w przeciwnym razie zaprosimy do interwencji rządy i inne organy zarządzające. Poddanie się zewnętrznym regulacjom może utrudnić swobodną ekspresję naszego innowacyjnego ducha i wpłynąć negatywnie na nieograniczone możliwości postępu technologicznego.

Po drugie, musimy stworzyć jednolity front w celu ustanowienia niezachwianych standardów, aby pogodzić nieuniknione starcia między moralnością a technologią. Wspierając środowisko współpracy zakorzenione we wspólnych wartościach i zasadach, możemy poruszać się po zawiłym krajobrazie, w którym kwestie etyczne przecinają się z postępem technologicznym. Tylko dzięki wspólnym wysiłkom możemy zapewnić, że nasze postępy będą harmonijnie współgrać z ponadczasową tkanką naszego zbiorowego sumienia.

Punkt przełomowy?

W bestsellerze Malcolma Gladwella „Punkt przełomowy” (The Tipping Point) z 2000 r. argumentuje on, że aby idea stała się endemiczna, wymaga trzech rzeczy: głęboko połączonej sieci, w której pomysły mogą się skutecznie rozprzestrzeniać, wpływowego „nośnego” przesłania oraz odpowiedniego kontekstu i warunków. Jeśli chodzi o odpowiedzialną sztuczną inteligencję, kontekst jest odpowiedni, a przesłanie, że coś należy zmienić, jest silne. To, czego brakuje, to społeczność interesariuszy AI, która napędzałaby przyjęcie tych pomysłów od podstaw.

W Nokii wierzymy we współpracę z partnerami, klientami i podmiotami branżowymi w celu przyspieszenia innowacji i postępu. Gdyby świat sztucznej inteligencji mógł zjednoczyć się jako społeczność, aby realizować wspólny zestaw odpowiedzialnych zasad sztucznej inteligencji, moglibyśmy rozwijać sztuczną inteligencję bez narażania się na kontrowersyjne pułapki, które obecnie dominują w wiadomościach.

Tylko poprzez utworzenie tej społeczności, współpracę i wypracowanie regulacji możemy przywrócić barierę, której wymaga sztuczna inteligencja.

Dodaj komentarz

Przeczytaj również

Cyfryzacja biznesu w Polsce: firmy powinny przyspieszyć obrany kurs

Jedna trzecia firm w Polsce zamierza zwiększać wydatki na realizację transformacji cyfrowe…