AnalizyRóżnice między Copilotem a ChatGPT: przypadek trenera reprezentacji USA w siatkówce > Robert Kamiński Opublikowane 30 maja 20240 0 159 Podziel się Facebook Podziel się Twitter Podziel się Google+ Podziel się Reddit Podziel się Pinterest Podziel się Linkedin Podziel się Tumblr Wszyscy jesteśmy świadkami rosnącej roli sztucznej inteligencji (AI) w codziennym życiu, narzędzia takie jak ChatGPT i Copilot od Microsoftu zyskują na popularności. Microsoft twierdzi, że Copilot w pełni korzysta z technologii ChatGPT. Jednak doświadczenia użytkowników sugerują, że wyniki dostarczane przez oba systemy mogą się znacznie różnić. Przyjrzyjmy się temu zjawisku bliżej, na przykładzie trenera reprezentacji USA w siatkówce.Podczas meczu Ligi Narodów między reprezentacjami Polski i USA, zauważyłem, że Alan Knipe pełnił funkcję trenera drużyny USA. Zaintrygowany, postanowiłem przeprowadzić mały eksperyment. Zapytałem Copilota, kto jest obecnie trenerem USA. Odpowiedź brzmiała: Alan Knipe. To samo pytanie zadałem ChatGPT, który odpowiedział prawidłowo: John Speraw. Speraw jest głównym trenerem reprezentacji, choć nie przyjechał na Ligę Narodów, delegując swoje obowiązki na Knipe’a.Analiza błędów: Copilot kontra ChatGPTTen przypadek doskonale ilustruje, jak Copilot i ChatGPT różnią się w dostarczaniu informacji. Główne kwestie to:Aktualność danych: ChatGPT poprawnie zidentyfikował, że John Speraw jest głównym trenerem, mimo że nie był obecny na meczu. Copilot natomiast podtrzymywał błędną informację, sugerując, że Alan Knipe jest obecnym trenerem.Zdolność do wnioskowania: ChatGPT potrafił sensownie uzasadnić swoją odpowiedź, uwzględniając kontekst i specyfikę sytuacji (delegowanie obowiązków trenerskich). Copilot, mimo pogłębiających pytań, upierał się przy swojej pierwotnej, błędnej odpowiedzi.Precyzja i wiarygodność: wydaje się, że ChatGPT lepiej radzi sobie z dostarczaniem precyzyjnych i aktualnych informacji. Copilot natomiast, choć oparty na tej samej technologii, może być mniej precyzyjny, co prowadzi do wniosków o możliwej „manipulacji” danymi, a nie tylko „halucynacji” AI.Halucynacje” vs „ManipulacjaPojęcie „halucynacji” w kontekście AI odnosi się do generowania przez modele językowe treści, które są całkowicie fikcyjne i nie mają oparcia w rzeczywistości. Jednak w przypadku Copilota możemy mówić o nowym problemie – „manipulacji”. To sugeruje, że dane są prezentowane w sposób, który może być mylący lub nieodpowiedni.Konkluzje ?Przypadek różnic w odpowiedziach dotyczących trenera reprezentacji USA w siatkówce pokazuje, że narzędzia AI, mimo że bazują na tej samej technologii, mogą dostarczać różne wyniki. ChatGPT, z lepszą zdolnością do kontekstowego rozumienia i aktualizacji danych, wyprzedza Copilot pod względem precyzji i wiarygodności informacji. To zjawisko zasługuje na dalszą uwagę, zwłaszcza w kontekście rosnącego zaufania do technologii AI w życiu codziennym i zawodowym.