8 listopada, 2024

MSPStandard

Znajdź wszystkie najnowsze artykuły i oglądaj programy telewizyjne, reportaże i podcasty związane z Polską

Użytkownicy Slacka są przerażeni, gdy odkrywają wiadomości używane do trenowania sztucznej inteligencji

Użytkownicy Slacka są przerażeni, gdy odkrywają wiadomości używane do trenowania sztucznej inteligencji

Po uwolnienie Slack AI Wydaje się, że w lutym Slack twardo stąpa po ziemi i broni swojej tajemniczości Polityka Który domyślnie zasysa dane klientów — w tym wiadomości, treść i pliki — w celu szkolenia światowej klasy modeli sztucznej inteligencji firmy Slack.

Według inżyniera Slacka Aarona MaureraSlack wyjaśnił w Bloga Usługa czatu należąca do Salesforce nie uczy dużych modeli językowych (LLM) na danych klientów. Jednak polityka Slacka może wymagać aktualizacji, aby „dokładniej wyjaśnić, w jaki sposób te zasady prywatności będą działać z Slack AI” – napisał Maurer w Threads, po części dlatego, że polityka „została pierwotnie napisana w związku z pracą związaną z wyszukiwaniem/rekomendacjami, którą wykonywaliśmy dla lat przed Slackiem”. Amnesty International.

Maurer odpowiadał na tematy Poczta Od inżyniera i pisarza Gergely’ego Orosa, który wezwał firmy do rezygnacji z udostępniania danych do czasu wyjaśnienia polityki nie na blogu, ale w języku rzeczywistej polityki.

„Jeden z inżynierów ML w firmie Slack twierdzi, że nie używają komunikatów do uczenia modeli LLM” – napisał Oros. „Moja odpowiedź jest taka, że ​​obecne warunki im na to pozwalają. Myślę, że taka jest polityka, gdy zajmuje się polityką. A post na blogu nie jest polityką prywatności: wie o tym każda poważna firma”.

Napięcie wśród użytkowników staje się jeszcze bardziej widoczne, jeśli porównasz zasady prywatności Slacka ze sposobem, w jaki firma promuje Slack AI.

Zasady prywatności firmy Slack wyraźnie stwierdzają: „Uczenie maszynowe (ML) i sztuczna inteligencja (AI) to przydatne narzędzia, których używamy w ograniczony sposób, aby realizować misję naszego produktu. Aby opracować modele AI/ML, nasze systemy analizują dane klientów (takie jak wiadomości, treści, pliki) dostarczone do Slack, a także inne informacje (w tym informacje o użytkowaniu) zgodnie z definicją w naszej Polityce prywatności oraz w Umowie z klientem.”

READ  16 sposobów, w jakie Android 14 subtelnie ulepsza Twój telefon

chwila, Strona Slack AI „Pracuj bez obaw” – mówi. „Twoje dane to Twoje dane. Nie używamy ich do szkolenia sztucznej inteligencji Slack”.

Z powodu tej rozbieżności użytkownicy wezwali firmę Slack do aktualizacji zasad prywatności w celu wyjaśnienia, w jaki sposób dane będą wykorzystywane na potrzeby sztucznej inteligencji Slack lub wszelkich przyszłych aktualizacji sztucznej inteligencji. Według rzecznika Salesforce firma zgodziła się, że aktualizacja jest konieczna.

„Wczoraj niektórzy członkowie społeczności Slack poprosili o większą przejrzystość naszych zasad prywatności” – powiedział Ars rzecznik Salesforce. „Dzisiaj zaktualizujemy te zasady, aby lepiej wyjaśnić związek między danymi klientów a generatywną sztuczną inteligencją w Slacku”.

Rzecznik powiedział Ars, że aktualizacje zasad wyjaśnią, że Slack nie „rozwija LLM ani innych modeli generatywnych przy użyciu danych klientów”, „nie wykorzystuje danych klientów do szkolenia LLM stron trzecich” ani „nie buduje ani nie szkoli tych modeli w sposób, który mogą się uczyć, zapamiętywać lub być w stanie odtworzyć dane klientów”. Aktualizacja wyjaśni również, że „Slack AI korzysta z gotowych rozwiązań LLM, w których modele nie przechowują danych klientów”, zapewniając, że „dane klientów nigdy nie opuszczą obszaru zaufania Slacka, a dostawcy LLM nigdy nie będą mieli dostępu do danych klientów”.

Jednak wydaje się, że zmiany te nie rozwiązują kluczowego problemu użytkowników, którzy nigdy wyraźnie nie zgodzili się na udostępnianie czatów i innych treści Slacka do wykorzystania w szkoleniach AI.

Użytkownicy decydują się nie udostępniać czatów Slackowi

Ta kontrowersyjna polityka nie jest nowa. Przewodowy przestrzec Zgłoszono w kwietniu TechCrunch wspomniany Polityka obowiązuje co najmniej od września 2023 r.

Jednak wczoraj wieczorem powszechny sprzeciw zaczął przybierać na sile Wiadomości pirackie, gdzie użytkownicy Slacka skrytykowali usługę czatu za to, że najwyraźniej nie powiadamiała użytkowników o zmianie zasad, zamiast tego domyślnie je włączała. Krytycy uznali, że nie ma sensu wybierać kogokolwiek innego niż Slack.

READ  Google obiecał naprawić Gemini i pewne ulepszenia już wprowadzono

Stamtąd reakcja przeniosła się na media społecznościowe, gdzie SlackHQ szybko wyjaśniło terminologię Slacka, podając wyjaśnienia, które zdawały się nie uwzględniać całej krytyki.

„Przepraszam, Slack, co robisz z czatami, wiadomościami, plikami itp. użytkowników?” Corey Quinn, główny ekonomista chmury w firmie zarządzającej kosztami Duckbill Group, opublikować Na X. „Jestem pewien, że nie czytam tego poprawnie”.

SlackHQ Odpowiedział do Quinna po tym, jak ekonomista oświadczył: „Tak bardzo tego nienawidzę” i potwierdził, że zrezygnował z udostępniania danych w swoim płatnym miejscu pracy.

„Aby wyjaśnić, Slack ma modele uczenia maszynowego na poziomie platformy dotyczące takich rzeczy, jak rekomendacje kanałów, emotikony i wyniki wyszukiwania” – napisał SlackHQ. „I tak, klienci mogą wykluczyć swoje dane z pomocy w szkoleniu (niegeneratywnych) modeli uczenia maszynowego Dane klientów należą do Slack AI — naszego generatywnego doświadczenia AI pierwotnie zbudowanego w Slack —.[and] „Jest to osobno zakupiony dodatek, który korzysta z modeli dużych języków (LLM), ale nie szkoli tych modeli LLM na danych klientów”.