Znam Siri, asystenta głosowego Apple, od prawie dwunastu lat, a mimo to wciąż nie mogę sobie przypomnieć ani jednej sensownej rozmowy, którą odbyliśmy. Z kolei ChatGPT i ja znamy się od pół roku, ale rozmawialiśmy o wszystkim, od sensu życia po planowanie romantycznej kolacji we dwoje, a nawet współpracowaliśmy przy projektach programistycznych i filmowych. To znaczy, mamy związek.
Ograniczenia Siri oznaczają, że nadal nie może prowadzić rozmowy ani angażować się w długotrwały projekt. Na dobre i na złe, Siri, którego używamy dzisiaj na naszych iPhone’ach, iPadach, MacBookach, Apple Watch i Apple TV, niewiele różni się od tego, które po raz pierwszy widzieliśmy w 2011 roku na iPhonie 4s.
Sześć lat temu pisałem o tym Pierwszy przeszczep mózgu Siri (Otwiera się w nowej karcie), w momencie, gdy Apple zaczęło używać uczenia maszynowego do szkolenia Siri i poprawy jego zdolności do odpowiadania na zapytania konwersacyjne. Wprowadzenie uczenia maszynowego, a wkrótce potem wbudowanej sieci neuronowej w postaci chipa Apple A11 Bionic w iPhonie 8, było punktem zwrotnym dla pierwszego cyfrowego asystenta na poziomie konsumenckim.
To programowanie i krzem pomogły Siri zrozumieć pytanie i jego kontekst, pozwalając wyjść poza rutynowe odpowiedzi do inteligentnych odpowiedzi na bardziej naturalne pytania.
Wczesna Siri nie była nią
Niemożność pełnej rozmowy z Siri nie wydaje się dużym problemem, chociaż widzieliśmy już film Ha I rozumiem, czego ostatecznie możemy oczekiwać od naszych chatbotów.
Jednak dopiero gdy ta odległa przyszłość została przeniesiona do teraźniejszości przez GPT-3 i ChatGPT OpenAI, niezdolność Siri została rzucona na główną ulgę.
Pomimo najlepszych starań Apple, Siri zwalniała w trybie uczenia się. Dzieje się tak prawdopodobnie dlatego, że Siri nadal opiera się głównie na uczeniu maszynowym, a nie na generatywnej sztucznej inteligencji. To różnica między nauką a kreatywnością.
Wszystkie chatboty oparte na sztucznej inteligencji i narzędzia graficzne, których używamy dzisiaj, tworzą coś zupełnie nowego na podstawie monitów, a wkrótce grafiki i obrazów. Nie odpowiadają botom, są botami konstrukcyjnymi.
Wątpię, żeby cokolwiek z tego zostało pominięte przez Apple. Pytanie brzmi, co Apple zamierza zrobić i co może z tym zrobić? Myślę, że nie będziemy musieli szukać dalej niż na kolejnej konferencji Worldwide Developers Conference (WWDC 2023). Wszyscy koncentrujemy się na potencjalnym zestawie słuchawkowym rzeczywistości mieszanej o wartości 3000 USD, który Apple może pochwalić się w czerwcu, ale największe zapowiedzi firmy z pewnością będą dotyczyć sztucznej inteligencji.
„Apple musi być pod niesamowitą presją teraz, gdy Google i Microsoft wprowadzają własne rozwiązania w zakresie języka naturalnego”, powiedział dyrektor generalny Moor Insights i analityk Cheif Patricka Moreheada (Otwiera się w nowej karcie) Powiedz mi przez Twitter DM.
Siri jest bardziej rozmowna
tak jak Zgłoszono na 9to5Mac, Apple może faktycznie – w końcu – zaktualizować swoje tworzenie języka dla Siri (Bobcat). Zauważ, że to nie to samo, co „generatywna sztuczna inteligencja”. Myślę, że oznacza to, że Siri będzie trochę lepsza w swobodnym przekomarzaniu się. Nie oczekuję też wiele więcej.
Niestety, własny duch Apple może uniemożliwić mu dogonienie GPT-4, nie mówiąc już o GPT-3. Obserwatorzy branży raczej nie spodziewają się momentu przełomu.
„Myślę, że to, co robią w sztucznej inteligencji, niekoniecznie będzie skokiem tak dużym, jak bardziej zorientowane etycznie i wyważone podejście do sztucznej inteligencji w Siri. Apple kocha, żyje i umiera zgodnie ze swoimi zobowiązaniami do prywatności i nie spodziewałbym się mniej w jaki sposób dostarcza Siri, która w większym stopniu opiera się na sztucznej inteligencji”, dyrektor wykonawczy ds. strategii kreatywnych i główny analityk Tim Bajarin (Otwiera się w nowej karcie) Napisał do mnie listem.
Prywatność przede wszystkim
Niezachwiane przestrzeganie przez Apple prywatności użytkowników może przeszkodzić w jej pracy, jeśli chodzi o prawdziwie generatywną sztuczną inteligencję. W przeciwieństwie do Google i Microsoft Bing, nie ma ogromnego magazynu danych, który opiera się na wyszukiwarce. Nie szkoli też swojej sztucznej inteligencji na ogromnym oceanie danych internetowych. Apple wykonuje uczenie maszynowe na urządzeniu. iPhone i Siri wiedzą to, co wiedzą o tobie na podstawie zawartości twojego telefonu, a nie tego, co Apple może wiedzieć o tobie i 1,5 miliarda użytkowników iPhone’a na całym świecie. Jasne, programiści mogą używać narzędzi ML firmy Apple do tworzenia nowych modeli sztucznej inteligencji i integrowania ich ze swoimi aplikacjami, ale nie mogą po prostu zbierać danych, aby dowiedzieć się więcej o tobie i pomóc Apple w dostarczaniu lepszej sztucznej inteligencji Siri.
Jak napisałem w 2016 roku: „Interesujące jest również rozważenie, w jaki sposób Apple może celowo utrudniać własne wysiłki związane z sztuczną inteligencją. Na przykład dane o twoich nawykach zakupowych w iTunes nie są udostępniane żadnym innym systemom i usługom Apple”.
Krajowe podejście Apple może utrudnić jego potencjalne wysiłki w zakresie sztucznej inteligencji. Jak powiedział mi Morehead: „Widzę większość akcji na urządzeniach iw chmurze. Apple jest silny na urządzeniach, ale słaby w chmurze i myślę, że właśnie tam firma będzie walczyć”.
Jak widzę, Apple ma wybór. Rezygnacja z odrobiny prywatności użytkowników, aby w końcu zmienić Siri w asystenta głosowego, którego zawsze chcieliśmy lub kontynuowanie kursu dzięki przyrostowym aktualizacjom AI, które ulepszają Siri, ale nie pozwalają jej konkurować z ChatGPT.
. „Telewizyjny pionier. Fan alkoholu. Namiętny komunikator. Oddany badacz kawy. Boczek ninja”.
More Stories
Po najgorszym tygodniu w historii Tarkowa nowa strzelanka wyczynowa chce przyciągnąć niezadowoloną publiczność
Aktywności na żywo na Androidzie? Android 15 testuje zmianę ekranu blokady przypominającą iOS
Zwiastun Akuma dla Street Fighter 6, którego premiera zaplanowana jest na 22 maja