W obszernym wywiadzie dla The Information kilku byłych inżynierów Apple AI i Siri ujawniło, że na rozwój technologii wpływają dysfunkcje organizacyjne, brak przywództwa i obawy dotyczące prywatności.
Zgłoszono że nierealistyczne oczekiwania i małostkowa polityka wewnętrzna utrudniały rozwój Siri na przestrzeni lat, a także obawy dotyczące prywatności do 2019 r.
Siri mogłaby być chatbotem podobnym do ChatGPT wiele lat temu tylko wtedy, gdyby przywództwo było postępowy
Twierdząc, że Siri jest „powszechnie wyśmiewany” lub wyśmiewany wewnętrznie w firmie, byli inżynierowie Apple wymienione przyczyny braku funkcjonalności i powolnej poprawy.
Brak przywództwa
Zespół pracujący nad Siri był w „bałaganie” do 2018 roku z powodu walk o wpływy między kierownictwem wyższego szczebla i niezdecydowania w wyznaczaniu kierunku asystenta głosowego.
Dane o Siri nie były wykorzystywane, ponieważ kierownictwo nie było zainteresowane opracowaniem narzędzi do analizy użycia asystenta, np. liczby osób z niego korzystających i częstotliwości.
Konserwatywny podejście do nowych technologii sztucznej inteligencji
Inżynierowie Apple opuścili firmę, ponieważ nie była ona otwarta na nowe technologie sztucznej inteligencji, takie jak wielojęzyczne modele asystenta głosowego, które stanowią podstawę ChatGPT, podobnie jak chatboty.
Propozycje, aby dać Siri możliwość interakcji przypominającej rozmowę, zostały odrzucone z powodu obaw, że treści generowane przez sztuczną inteligencję będą efekciarskie i trudne do kontrolowania.
W 2019 r. zespoły inżynierów i projektantów Siri ścierały się nad funkcją, która wykorzystywała materiały z sieci do odpowiadania na zapytania. Zespół projektowy chciał uzyskać niemal idealną dokładność odpowiedzi, aby uruchomić tę funkcję, aby asystent głosowy wyglądał na „wszechwiedzącego”.
CEO Tim Cook i inni członkowie kierownictwa wyższego szczebla poprosili o dostosowanie Siri, aby zapobiec zawstydzającym odpowiedzi, mieć zespół 20 pisarzy do wstępnego pisania odpowiedzi zamiast korzystania z odpowiedzi generowanych przez sztuczną inteligencję i wykluczać niektóre rodzaje informacji, takie jak ceny iPhone’a, aby skierować konsumentów do witryny internetowej lub sklepu internetowego firmy.
Petty bitwy o murawę
W 2019 roku zespół Siri rozpoczął nowy projekt „Blackbird”, mający na celu przepisanie asystenta głosowego od podstaw w celu stworzenia jego lekkiej wersji, która delegowałaby tworzenie funkcji twórcom aplikacji. Zaprojektował również Siri do działania na iPhone’ach zamiast w chmurze, aby poprawić swoją prywatność i wydajność.
Chociaż Blackbird wywołał wiele emocji, projekt został zabity, ponieważ konkurował z „Siri X”, projektem dwóch starszych liderów w zespole Siri, którzy pracowali nad tym, aby asystent rozumiał i odpowiadał na pytania.
W 10. rocznicę wirtualnego asystenta liderzy zespołu przeforsowali własny projekt „Siri X”, który przetwarzanie na urządzeniu ze względu na ochronę prywatności. Projekt został ukończony w 2021 roku, a teraz kilka funkcji Siri jest przetwarzanych na urządzeniu.
Dusząca polityka prywatności
Nacisk firmy na maksymalne wykorzystanie Siri wykonywanie funkcji na urządzeniu ze względu na prywatność utrudniało wprowadzanie nowych funkcji do asystenta głosowego.
Wcześniej informowano, że surowa polityka prywatności Apple ogranicza możliwości Siri i innych usług, takich jak TV+, App Store i Apple Card, ograniczając swoim inżynierom dostęp do danych użytkowników z powodu obaw związanych z wykorzystaniem.
Niedawno zespół zestawów do rzeczywistości mieszanej Apple wyraził zadowolenie zespołu Siri ze sposobu, w jaki wirtualny asystent steruje urządzeniem. Zbadano również alternatywne sposoby sterowania urządzeniem za pomocą poleceń głosowych zamiast Siri.
Więcej informacji: