Na czasieGeneratywna sztuczna inteligencja: wyzwania i rozwiązania > Robert Kamiński Opublikowane 21 lipca 20240 0 112 Podziel się Facebook Podziel się Twitter Podziel się Google+ Podziel się Reddit Podziel się Pinterest Podziel się Linkedin Podziel się Tumblr Najnowszy raport Capgemini, zatytułowany „Turbocharging software with generative AI: How organizations can realize the full potential of generative AI for software engineering”, ujawnia zaskakujące dane. Aż 63% pracowników branży oprogramowania korzysta z narzędzi AI, które nie są autoryzowane przez ich organizacje. Takie działania bez odpowiedniego nadzoru, szkoleń dla pracowników i właściwego zarządzania mogą prowadzić do poważnych konsekwencji prawnych i cyberzagrożeń.Ryzyko nieautoryzowanego użycia narzędzi AIMarek Matczak, CTO w Software Center Capgemini Polska, ostrzega przed licznymi ryzykami związanymi z używaniem nieautoryzowanych narzędzi AI. Główne obawy związane są z aspektami prawnymi, poprawnością generowanych danych, np. kodu, oraz cyberbezpieczeństwem. Im więcej informacji narzędzia AI otrzymują, tym lepsze są generowane wyniki. Jednakże, udostępnienie tych „wskazówek” niesie za sobą ryzyko wycieku danych, co może prowadzić do cyberataków i ujawnienia tajemnic biznesowych.Wyzwania w trenowaniu AIModele generatywnej AI są trenowane na danych objętych licencjami lub prawami autorskimi, co wymaga dokładnego sprawdzania wygenerowanego kodu pod kątem zgodności prawnej. Problem pogłębia fakt, że w branży IT pracownicy często muszą samodzielnie szkolić się w zakresie GenAI. Tylko dwie na pięć organizacji aktywnie inwestują w rozwój kompetencji swoich zespołów, a jedynie 40% pracowników jest szkolonych przez swoich pracodawców.Kroki do bezpiecznego wdrożenia AIAby skutecznie minimalizować ryzyka, firmy muszą ustanowić przejrzyste zasady dotyczące użycia narzędzi AI. Wytyczne powinny szczegółowo określać zakres i sposób korzystania z autoryzowanych narzędzi, a także edukować pracowników na temat ryzyka związanego z użyciem nieautoryzowanych rozwiązań. Kluczowe jest również wprowadzenie regularnych programów szkoleniowych oraz zaawansowanych systemów monitorowania, które będą śledzić użycie narzędzi i identyfikować przypadki nieautoryzowanego korzystania.Tworzenie kultury odpowiedzialnościOprócz technicznych zabezpieczeń, ważne jest kształtowanie kultury odpowiedzialności w organizacji. Centralizacja zakupu narzędzi AI w działach zakupów pozwala na korzystanie wyłącznie z zatwierdzonych rozwiązań. Regularne audyty i oceny ryzyka pomagają identyfikować potencjalne luki i zapewniają zgodność z wewnętrznymi politykami. Tworzenie oferty szkoleniowej dla specjalistów umożliwia rozwijanie się w ramach organizacji i naukę maksymalizacji wartości dodanej bezpiecznych narzędzi AI.PodsumowanieKorzystanie z generatywnej sztucznej inteligencji w branży oprogramowania przynosi wiele korzyści, ale niesie też poważne ryzyka. Klucz do sukcesu leży w odpowiednim szkoleniu, przejrzystych zasadach i zaawansowanych systemach monitorowania. Dzięki temu organizacje mogą w pełni wykorzystać potencjał AI, jednocześnie minimalizując ryzyko prawne i cyberzagrożenia.
Cyberzagrożenia i dezinformacja to główne źródła niepokoju na świecie. Obawy Polaków powyżej średniej