LONDYN/WASHINGTON, 11 sierpnia (Reuters) – Wielu pracowników w całych Stanach Zjednoczonych zwraca się do ChatGPT o pomoc w podstawowych zadaniach, jak wynika z ankiety Reuters/Ipsos, pomimo obaw, które skłoniły pracodawców takich jak Microsoft i Google do ograniczenia korzystania z niego.
Firmy na całym świecie badają, jak najlepiej wykorzystać ChatGPT, chatbota, który wykorzystuje generatywną sztuczną inteligencję do prowadzenia rozmów z użytkownikami i odpowiadania na niezliczone podpowiedzi. Firmy i firmy ochroniarskie wyraziły jednak obawy, że może to prowadzić do wycieków własności intelektualnej i strategii.
Anegdotyczne przykłady osób korzystających z ChatGPT do pomocy w ich codziennej pracy obejmują redagowanie e-maili, streszczanie dokumentów i przeprowadzanie wstępnych badań.
Około 28% respondentów ankiety internetowej na temat sztucznej inteligencji (AI) w dniach 11-17 lipca stwierdziło, że regularnie korzysta z ChatGPT w pracy, a tylko 22% stwierdziło, że ich pracodawcy wyraźnie zezwalają na takie narzędzia innych firm.
Ankieta Reuters/Ipsos przeprowadzona wśród 2625 dorosłych w Stanach Zjednoczonych miała przedział wiarygodności, będący miarą dokładności, wynoszący około dwóch punktów procentowych.
Około 10% ankietowanych stwierdziło, że ich szefowie wyraźnie zabronili narzędzi sztucznej inteligencji innych firm, a około 25% nie wiedziało, czy ich firma zezwala na korzystanie z tej technologii.
ChatGPT stał się najszybciej rozwijającą się aplikacją w historii po premierze w listopadzie. Wywołało to zarówno podekscytowanie, jak i niepokój, doprowadzając dewelopera OpenAI do konfliktu z organami regulacyjnymi, szczególnie w Europie, gdzie masowe gromadzenie danych przez firmę spotkało się z krytyką ze strony organów nadzorujących prywatność.
Recenzenci z innych firm mogą czytać dowolne z generowanych czatów, a badacze odkryli, że podobna sztuczna inteligencja może odtwarzać dane pochłonięte podczas szkolenia, stwarzając potencjalne ryzyko dla zastrzeżonych informacji.
„Ludzie nie rozumieją, w jaki sposób wykorzystywane są dane, gdy korzystają z generatywnych usług AI” — powiedział Ben King, wiceprezes ds. zaufania klientów w firmie Okta zajmującej się bezpieczeństwem korporacyjnym (OKTA.O).
„Dla firm ma to kluczowe znaczenie, ponieważ użytkownicy nie mają umowy z wieloma systemami sztucznej inteligencji – ponieważ jest to bezpłatna usługa – więc firmy nie będą narażone na ryzyko w ramach zwykłego procesu oceny” – powiedział King.
OpenAI odmówiło komentarza, gdy zapytano go o konsekwencje używania ChatGPT przez poszczególnych pracowników, ale zwróciło uwagę na niedawny firmowy wpis na blogu, w którym partnerzy firmy zapewniają, że ich dane nie będą wykorzystywane do dalszego szkolenia chatbota, chyba że udzielą wyraźnej zgody.
Gdy ludzie korzystają z Google Bard, zbiera on dane, takie jak tekst, lokalizacja i inne informacje o użytkowaniu. Firma pozwala użytkownikom usuwać wcześniejsze działania ze swoich kont i żądać usunięcia treści wprowadzanych do sztucznej inteligencji. Firma Google należąca do Alphabet (GOOGL.O) odmówiła komentarza, gdy została poproszona o więcej szczegółów.
Microsoft (MSFT.O) nie odpowiedział natychmiast na prośbę o komentarz.
niegroźne zadania
Pracownik Tindera w USA powiedział, że pracownicy aplikacji randkowej używali ChatGPT do „nieszkodliwych zadań”, takich jak pisanie e-maili, mimo że firma oficjalnie na to nie zezwala.
powiedział pracownik, który odmówił podania nazwiska, ponieważ nie był upoważniony do rozmowy z reporterami.
Pracownik powiedział, że Tinder ma „zasadę No ChatGPT”, ale pracownicy nadal używają jej „w ogólny sposób, który nie ujawnia niczego na temat naszej obecności na Tinderze”.
Reuters nie był w stanie niezależnie potwierdzić, w jaki sposób pracownicy Tinder korzystają z ChatGPT. Tinder powiedział, że zapewnia „regularne wskazówki dla pracowników dotyczące najlepszych praktyk w zakresie bezpieczeństwa i danych”.
W maju firma Samsung Electronics zabroniła pracownikom na całym świecie korzystania z ChatGPT i podobnych narzędzi sztucznej inteligencji po tym, jak odkryto, że pracownik przesłał poufny kod na platformę.
„Dokonujemy przeglądu środków mających na celu stworzenie bezpiecznego środowiska do generatywnego wykorzystania sztucznej inteligencji, które zwiększa produktywność i wydajność pracowników”, powiedział Samsung w oświadczeniu z 3 sierpnia.
„Jednak do czasu wprowadzenia tych środków tymczasowo ograniczamy korzystanie z generatywnej sztucznej inteligencji za pośrednictwem urządzeń firmowych”.
Reuters poinformował w czerwcu, że Alphabet ostrzegał pracowników przed tym, jak używają oprogramowania do czatu, w tym Google Bard, jednocześnie promując to oprogramowanie na całym świecie.
Google powiedział, że chociaż Bard może podawać niezamówione sugestie dotyczące kodu, pomaga to programistom. Powiedział również, że chce być przejrzysty w kwestii ograniczeń swojej technologii.
Koc zakazu
Niektóre firmy powiedziały Reuterowi, że przyjmują ChatGPT i podobne platformy z myślą o bezpieczeństwie.
„Zaczęliśmy testować i uczyć się, w jaki sposób sztuczna inteligencja może zwiększyć efektywność operacyjną” – powiedział rzecznik Coca-Coli w Atlancie w stanie Georgia, dodając, że dane pozostają wewnątrz zapory sieciowej.
„Wewnętrznie niedawno uruchomiliśmy naszą korporacyjną wersję Coca-Cola ChatGPT pod kątem produktywności”, powiedział rzecznik firmy, dodając, że Coca-Cola planuje wykorzystać sztuczną inteligencję do poprawy efektywności i produktywności swoich zespołów.
Tymczasem dyrektor finansowy Tate & Lyle (TATE.L), Dawn Allen, powiedział agencji Reuters, że globalny producent komponentów testuje ChatGPT po tym, jak „znalazł sposób na bezpieczne korzystanie z niego”.
„Mamy różne zespoły, które decydują, jak chcą to wykorzystać poprzez serię eksperymentów. Czy powinniśmy to wykorzystać w relacjach inwestorskich? Czy powinniśmy to wykorzystać w zarządzaniu wiedzą? Jak możemy to wykorzystać do efektywniejszej realizacji zadań?”
Niektórzy pracownicy twierdzą, że w ogóle nie mają dostępu do platformy na firmowych komputerach.
„Jest to całkowicie niedostępne dla sieci biurowej, ponieważ nie działa” – powiedział pracownik Procter & Gamble (PG.N), który chciał pozostać anonimowy, ponieważ nie był upoważniony do rozmawiania z prasą.
Procter & Gamble odmówił komentarza. Reuters nie był w stanie niezależnie potwierdzić, czy pracownicy P&G nie mogą korzystać z ChatGPT.
Paul Lewis, dyrektor ds. bezpieczeństwa informacji w firmie Nominet zajmującej się cyberbezpieczeństwem, powiedział, że firmy miały rację, zachowując ostrożność.
„Wszyscy odnoszą korzyści z tej zwiększonej zdolności, ale informacje nie są całkowicie bezpieczne i można je modyfikować” – powiedział, powołując się na „złośliwe twierdzenia”, które można wykorzystać do ujawnienia informacji przez chatboty AI.
„Ogólny zakaz nie jest jeszcze uzasadniony, ale musimy postępować ostrożnie” – powiedział Lewis.
Dodatkowe raporty autorstwa Richa Naidoo, Martina Coultera i Jasona Langa; Pod redakcją Aleksandra Smitha
Nasze standardy: Zasady zaufania Thomson Reuters.
„Kawioholik. Fanatyk alkoholu na całe życie. Typowy ekspert podróży. Skłonny do napadów apatii. Internetowy pionier”.
More Stories
JPMorgan oczekuje, że Fed obniży w tym roku referencyjną stopę procentową o 100 punktów bazowych
Akcje giganta chipów sztucznej inteligencji Nvidia spadły pomimo rekordowej sprzedaży wynoszącej 30 miliardów dolarów
Stowarzyszenie Graczy NFL pozywa DraftKings na kwotę około 65 milionów dolarów