Po latach skarg na niezrozumiane prośby i nieprzydatne odpowiedzi wydaje się, że Apple zamierza wprowadzić na rynek Największa aktualizacja Siri od dłuższego czasuNie byłby to prosty lifting, ale głęboka zmiana w technologia stojąca za asystentemzbliżając go do chatbotów wykorzystujących sztuczną inteligencję, które zyskały popularność w ostatnich latach.
Nowa Siri: asystent nowej generacji oparty na sztucznej inteligencji
Doniesienia specjalistycznych mediów, takich jak Bloomberg, ZDNET i 9to5Mac, zgadzają się, że Apple przebudowuje Siri na architekturze duże modele językowe (LLM)podobne do tych używanych przez ChatGPT czy Google Gemini. Ta zmiana fundamentu pozwoliłaby na bardziej naturalne rozmowy, z mniejszym wrażeniem rozmowy z nieruchomą maszyną.
Według tych źródeł, Nowa aplikacja Siri przechodziła przez wewnętrzne testy przez wiele miesięcy. na iPhone'a, iPada i Maca, początkowo jako samodzielna aplikacja, a później zintegrowana z wersje próbne systemuCelem jest stopniowa wymiana starej infrastruktury na nowy silnik sztucznej inteligencji, który będzie lepiej rozumiał język naturalny i obsługiwał bardziej złożone żądania.
Pomysł polega na tym, aby asystent pozostawił za sobą takie typowe sytuacje, jak błędnie zinterpretowane polecenia głosowe lub absurdalne odpowiedziktóre były nawet tematem żartów w serialach telewizyjnych. Apple chce, aby Siri bardziej przypominała w zachowaniu współczesne chatboty: ciągłe dialogi, zdolność do zapamiętywania aktualnego kontekstu i mniej błędów w zrozumieniu.
W tym nowym systemie Siri nie tylko będzie odpowiadać na pytania, ale także będzie działał jak prawdziwy organizator działań w ramach systemu i aplikacji, co do tej pory było bardzo ograniczone lub działało niespójnie.

Możliwa data premiery: wszystkie oczy zwrócone na marzec
Wielu użytkowników zadaje sobie pytanie, kiedy będą mogli wypróbować nową Siri. Wszystko na to wskazuje. Aktualizacja pojawi się wraz z systemem iOS 26.4 i jego odpowiednikami na iPadOS i macOS, w oknie, które wpisuje się w trajektorię rozwoju Apple w poprzednich latach.
W poprzednich cyklach, .4 wersje systemu Zazwyczaj były one wydawane w marcu, zwłaszcza pod koniec miesiąca. Historia ostatnich wydań wyraźnie ilustruje ten schemat:
- iOS 18.4Został uruchomiony w poniedziałek 31 marca.
- iOS 17.4Przesyłka dotarła we wtorek 5 marca, nieznacznie przed zwykle panującym terminem.
- iOS 16.4Artykuł opublikowano w poniedziałek 27 marca.
W tym kontekście wewnętrzne przecieki wskazują, że iOS 26.4 zostanie ponownie wydany pod koniec marca.System iOS 26.3 znajduje się już w fazie testów beta, a jego wydanie planowane jest na koniec stycznia. Oznacza to, że pierwsza wersja beta systemu iOS 26.4 mogłaby się pojawić pod koniec stycznia lub w lutym.
Gdyby ta wersja beta została wydana wkrótce, nie byłoby niczym niezwykłym... wdrożenie nieco wcześniej, w marcuJednak raporty podkreślają, że kluczowe znaczenie będzie miała rzeczywista wydajność nowej Siri w testach: jeśli zostaną wykryte problemy z dokładnością, stabilnością lub zgodnością aplikacji, Apple może potrzebować kilku dodatkowych tygodni na dopracowanie działania aplikacji, zanim zostanie ona udostępniona ogółowi społeczeństwa.
W Europie występuje dodatkowy czynnik: zgodność z przepisami cyfrowymi i przepisami o ochronie danychW przeszłości firma modyfikowała już harmonogram wydań niektórych wersji, takich jak iOS 17.4, aby dostosować się do terminów określonych w ustawie o rynkach cyfrowych. W związku z tym możliwe jest, że termin wprowadzenia na rynek w UE będzie podlegał szczególnym wymogom regulacyjnym.
Jakie praktyczne zmiany zauważą użytkownicy?
Poza datą istotne dla użytkowników hiszpańskich i europejskich jest to, Co nowego będzie w stanie zrobić Siri, czego nie potrafi teraz?Tutaj do gry wchodzą pewne funkcje, które Apple pierwotnie zaprezentowało w ramach swojej strategii dotyczącej sztucznej inteligencji, a których wdrożenie ostatecznie zostało opóźnione.
Pierwszą wielką wiadomością jest znacznie głębsza integracja z aplikacjami przez połączenia Intencje aplikacjiTechnologia ta umożliwi asystentowi wykonywanie bardzo konkretnych czynności w aplikacjach, bez konieczności poruszania się po menu lub dotykania ekranu przez użytkownika.
Znacznej poprawy można się spodziewać także w zrozumienie kontekstu osobistegoSiri miałaby bardziej ustrukturyzowany dostęp do danych, takich jak e-maile, wiadomości, kalendarz i notatki – zawsze zgodnie z polityką prywatności Apple – aby lepiej rozumieć żądania, które wcześniej były mylące, takie jak wyszukiwanie konkretnej wiadomości lub lokalizowanie ważnych informacji w danych urządzenia. Częścią tego usprawnienia byłaby lepsza integracja systemów, takich jak Inteligencja Apple z asystentem.
Kolejnym kluczowym filarem będzie świadomość ekranuAsystent będzie mógł brać pod uwagę to, co jest widoczne w danej chwili, i podejmować bezpośrednie działania na podstawie tej treści: dodać adres, który pojawia się w wiadomości e-mail, zapisać numer telefonu, streścić artykuł czytany w przeglądarce lub wykonać czynności związane z aplikacją otwartą przez użytkownika.
Wreszcie, zdolność Siri do bezpośrednio odpowiadać na pytania z zakresu wiedzy ogólnejDziała bardziej jak wyszukiwarka konwersacyjna niż zwykły pośrednik wyświetlający linki. Idea polega na tym, że może dostarczać jasnych i zwięzłych wyjaśnień na temat bieżących wydarzeń, historii, sportu czy kultury, bez konieczności otwierania strony internetowej dla każdego wyszukiwania.
Architektura LLM mająca na celu redukcję błędów i nieporozumień
Duża część historycznej frustracji związanej z Siri wynika z powtarzające się nieporozumienia, powtarzające się niewykonane zamówienia i absurdalne odpowiedziApple zamierza uporać się z tym problemem u źródła, wykorzystując duże modele językowe – tę samą rodzinę technologii, która leży u podstaw wiodących obecnie chatbotów.
Modele te są trenowane na dużych wolumenach danych, aby naucz się interpretować język ludzki z większą ilością niuansówBędzie rozumiał nawiązania, subtelne ironie i powiązane prośby. Zamiast polegać na sztywnych poleceniach, asystent będzie w stanie obsługiwać instrukcje sformułowane w sposób bardziej naturalny, podobny do tego, jak mówimy w codziennej rozmowie.
Przecieki wskazują, że nowa Siri będzie w stanie aby lepiej utrzymać wątek tego, co zostało powiedziane wcześniejPowinno to ograniczyć liczbę przypadków, w których odpowiedź brzmi: „Nie zrozumiałem”, gdy ktoś odnosi się do czegoś wspomnianego w poprzednim zdaniu lub do elementu widocznego na ekranie.
Co więcej, oczekuje się, że wiele sytuacji, w których asystent łatwo się poddaje lub udziela błędnej odpowiedzi, nie uznając własnych ograniczeń, zniknie. Celem jest Siri rzadziej myli nazwy, miejsca lub instrukcje nawigacyjnei z większą możliwością wskazania, kiedy żądanie należy przeformułować.
Obserwatorzy wskazują jednak, że Apple składało już podobne obietnice w przeszłości, na przykład w ramach inicjatywy Apple Intelligence, która Nie spełniło ono wszystkich oczekiwań Ponowne wprowadzenie asystenta na rynek stawia pod znakiem zapytania wiarygodność firmy w dziedzinie sztucznej inteligencji.
Gdzie będą przetwarzane informacje: urządzenie, chmura i prywatność
Innym kluczowym aspektem tej aktualizacji jest gdzie wykonywane są obliczenia, które ożywiają nową SiriFirma zdecydowałaby się na model hybrydowy, w którym część żądań jest rozwiązywana bezpośrednio na urządzeniu, a reszta jest kierowana do serwerów w chmurze.
Przetwarzanie lokalne — bezpośrednio na iPhonie, iPadzie lub komputerze Mac — ma tę zaletę, że być szybszym i bardziej dyskretnymW przypadku stosunkowo prostych zadań lub takich, które wymagają jedynie informacji znajdujących się już na urządzeniu, Siri może odpowiadać bez przesyłania danych osobowych na zewnątrz, opierając się na modelach zoptymalizowanych do działania na procesorach Apple.
W przypadku bardziej złożonych próśb, takich jak: obszerne podsumowania, zaawansowane analizy lub wyszukiwania wiedzy ogólnejSystem miałby opierać się na przetwarzaniu w chmurze. W tym kontekście pojawiają się spekulacje o potencjalnym wykorzystaniu technologii zewnętrznych, a Google i OpenAI są wiodącymi kandydatami do dostarczenia części silnika języka wysokiego poziomu.
Według tych doniesień Apple zachowa kontrolę nad ostateczne wykonanie akcji i dostęp do danych użytkownikaktóry opierałby się na własnych modelach i systemach, nawet jeśli używałby zewnętrznego LLM w celu lepszej interpretacji języka naturalnego.
Podejście to jest szczególnie istotne w Europie, gdzie obowiązuje ogólne rozporządzenie o ochronie danych i nowe przepisy dotyczące usług cyfrowych. Stawiają wysokie wymagania dotyczące przejrzystości, minimalizacji danych i kontroli użytkownika.Firma będzie musiała jasno wyjaśnić, co jest przetwarzane na urządzeniu, co trafia do chmury, jak długo jest to przechowywane i jakie daje gwarancje.

Integracja z aplikacjami i nowe sposoby korzystania
Jedną z najbardziej widocznych przemian w życiu codziennym będzie zaawansowana integracja Siri z aplikacjamiDo tej pory asystent miał bardzo ograniczoną rolę w wielu aplikacjach, zmuszając użytkowników do korzystania z dotyku i menu w przypadku zadań, które teoretycznie można by rozwiązać za pomocą głosu.
Dzięki nowej wersji deweloperzy będą mogli korzystać Intencje aplikacji służące do definiowania bardzo szczegółowych działań w swoich aplikacjach, które Siri będzie mogła uruchamiać bezpośrednio. Może to obejmować wszystko, od edycji konkretnego zdjęcia w aplikacji Zdjęcia, przez sprawdzenie statusu lotu w aplikacji linii lotniczych, po ponowne złożenie zamówienia w sklepie internetowym.
Aby to wszystko zadziałało, twórcy aplikacji będą musieli dostosuj swoje aplikacje do nowych interfejsów API asystentówOczekuje się, że główne usługi — przesyłanie wiadomości, zakupy, bankowość, mobilność czy podróże — szybko zaczną korzystać z tych możliwości, zwłaszcza na rynkach takich jak Europa, gdzie baza użytkowników iPhone'ów jest duża.
Połączenie intencji aplikacji z świadomość ekranu Obiecuje również bardziej naturalne zastosowania. Na przykład, jeśli użytkownik przegląda adres e-mail, może poprosić Siri o zapisanie go w kontaktach; jeśli ma otwartą stronę z informacjami o zamówieniu, może poprosić o śledzenie przesyłki lub zwrot bez konieczności ręcznego poruszania się po aplikacji.
Równocześnie ulepszony kontekst umożliwi asystentowi zarządzać zapytaniami, które do tej pory były zawodne, Co "wyszukaj wiadomość, do której mnie wysłali „numer konta” lub „podaj mi, o której godzinie odlatuje jutrzejszy lot z e-maila potwierdzającego”, zawsze szanując ustawienia prywatności i uprawnienia użytkownika.
Wpływ na inne urządzenia w ekosystemie Apple
Nowa Siri nie będzie ograniczona do iPhone'a. Firma ma taki zamiar Cały Twój ekosystem skorzysta na skoku w inteligencjiszczególnie tych produktów, w których podstawową formą interakcji jest głos.
Wśród urządzeń, które mogłyby najbardziej zauważyć zmianę, znajdują się inteligentne głośniki i możliwe sprzęt AGD z wbudowanym ekranemOd dawna mówi się o produkcie łączącym elementy HomePoda i iPada. Produkt ten miałby pełnić funkcję centrum sterowania domem, ekranu do połączeń wideo i punktu szybkiego dostępu do informacji za pomocą poleceń głosowych.
Ten typ produktu zostałby wstrzymany częściowo dlatego, że Siri nie była przygotowana na oferowanie prawdziwie nowoczesnych rozwiązań.Dzięki bardziej zaawansowanemu asystentowi, który potrafi lepiej zrozumieć kontekst rodzinny, profile użytkowników i treści wyświetlane na ekranie, pomysł takiego urządzenia do salonu lub kuchni zyskuje na popularności.
Apple Watch to kolejny wyraźny kandydat, który skorzysta na tej zmianie. Jego format sprawia, że idealnie nadaje się do krótkie i częste interakcje z asystentemSprawdzanie wiadomości, zarządzanie przypomnieniami, zapisywanie treningów lub uruchamianie złożonych automatyzacji bez dotykania iPhone'a może stać się o wiele płynniejszymi czynnościami, jeśli Siri będzie reagować lepiej.
AirPodsy i inne słuchawki tej marki również mogłyby skorzystać z najbardziej niezawodny asystent do obsługi poleceń głosowychOd sterowania odtwarzaniem po instrukcje nawigacyjne – wszystko bez konieczności wyjmowania telefonu z kieszeni. We wszystkich tych przypadkach sukces będzie zależał od tego, czy nowa architektura spełni swoje obietnice dotyczące dokładności i szybkości.
Biorąc pod uwagę wszystkie ujawnione informacje, Apple przygotowuje aktualizację na marzec w postaci systemu iOS 26.4 To punkt zwrotny dla przyszłości Siri.Jeśli połączenie zaawansowanych modeli językowych, większej integracji z aplikacjami i lepszego zarządzania kontekstem zadziała zgodnie z oczekiwaniami, asystent będzie mógł pozbyć się dużej części swojej dotychczasowej złej reputacji i stać się prawdziwie użytecznym narzędziem dla milionów użytkowników zarówno w Hiszpanii, Europie, jak i na całym świecie.