Apple Intelligence w Siri: asystent przeczyta wiadomości, zanim zdążysz odblokować telefon

Siri w iOS 18.3 czyta wiadomości i maile z ekranu blokady dzięki Apple Intelligence. Premiera wiosną 2025, tylko na wybranych urządzeniach.
Apple Intelligence w Siri: asystent przeczyta wiadomości, zanim zdążysz odblokować telefon
Siri słucha — nawet gdy telefon śpi

Apple przez lata był chłopcem do bicia w dyskusjach o asystentach głosowych. Siri przegrywała z Google Assistant w dosłownie każdym teście rozumienia języka, a o Alexie lepiej nie wspominać w towarzystwie fanów jabłka. Teraz Apple robi krok, który powinien był pojawić się kilka lat temu: Siri w końcu potrafi czytać wiadomości i maile na głos, zanim użytkownik w ogóle sięgnie po telefon.

iOS 18.3 trafił do testerów w lutym 2025 roku z nową funkcją opartą na Apple Intelligence. Siri może teraz odczytywać wiadomości, maile i powiadomienia bezpośrednio z ekranu blokady — bez konieczności odblokowywania urządzenia. Brzmi znajomo? Bo Google i Amazon oferują coś podobnego od lat. Ale Apple robi to po swojemu.

Co dokładnie potrafi nowa Siri

Funkcja działa tak: masz zablokowany iPhone, mówisz „Hej Siri, przeczytaj mi wiadomości” i asystent robi to bez żadnego dodatkowego uwierzytelniania. Obsługuje SMS-y, maile i powiadomienia z aplikacji. Apple zapewnia, że przetwarzanie odbywa się lokalnie na urządzeniu — żadne Twoje dane nie wędrują na zewnętrzne serwery. Dla Apple to niemal religijny dogmat: AI tak, ale na własnym sprzęcie.

Funkcja dostępna jest wyłącznie na urządzeniach obsługujących Apple Intelligence, czyli przede wszystkim na iPhone 16 Pro i iPhone 16 Pro Max. Starsze modele i tańsze warianty z tej kolacji wypadają — co Apple Intelligence ma w zwyczaju od samego początku.

Apple Intelligence dogania rynek — ale prywatność to ich as w rękawie

Uczciwie trzeba powiedzieć wprost: to nie jest funkcja, która zrewolucjonizuje rynek. Google Assistant potrafi czytać powiadomienia od dawna, Alexa w samochodzie robi to od lat, a Samsung z Bixby na Galaxy Watch robi podobne sztuczki na nadgarstku. Apple nie wynajduje tu koła — zakłada po prostu lepsze opony.

Różnica polega na tym, że Apple robi to z obsesją na punkcie prywatności. Lokalne przetwarzanie oznacza, że Twoje maile i wiadomości nie trafiają do chmury, gdzie mogłyby trafić w nieodpowiednie ręce lub zostać użyte do trenowania modeli. Dla użytkowników, którzy z tej właśnie przyczyny wybrali ekosystem Apple, to argument nie do zbagatelizowania.

Kiedy trafi do zwykłych użytkowników

Beta dla deweloperów ruszyła w lutym 2025. Publiczną premierę Apple zaplanował na wiosnę 2025 — bez podawania konkretnej daty, bo to Apple i lubią trzymać nas w niepewności. Można się spodziewać, że pełna aktualizacja dotrze do użytkowników przy okazji kolejnych pomniejszych wydań iOS 18, prawdopodobnie gdzieś między marcem a majem.

Funkcja będzie dostępna na obsługiwanych urządzeniach automatycznie — bez dodatkowych konfiguracji, przynajmniej według zapowiedzi Apple. Jak zawsze przy nowych funkcjach Siri, praktyka może okazać się nieco bardziej skomplikowana.

Czy to zmienia codzienne życie z iPhonem

Tak, i to konkretnie. Wyobraź sobie poranek: ładujesz telefon przy biurku, słyszysz dźwięk powiadomienia, mówisz „Hej Siri, co nowego” i Siri odczytuje Ci skróty maili bez konieczności przerywania pracy. Albo prowadzisz samochód, iPhone leży w uchwycie, przychodzi wiadomość od szefa — zamiast sięgać po telefon jak dentysta po wiertło, słyszysz treść przez głośniki.

To małe zmiany, ale właśnie takie zmiany sprawiają, że telefon staje się mniej rozpraszający i bardziej użyteczny w tych momentach, gdy nie można lub nie chce się na niego patrzeć. Apple powoli, bardzo powoli, robi ze swojego asystenta coś, czego używanie przestaje być obciachem.

I co z tego wynika dla Siri na dłuższą metę

Apple Intelligence to nie jednorazowy strzał — to wieloletnia strategia doganiania Google i OpenAI przy jednoczesnym utrzymaniu narracji o prywatności jako wartości nadrzędnej. Czytanie wiadomości z ekranu blokady to jeden z wielu puzzli, które Apple będzie dokładać do obrazka przez kolejne wersje iOS. W planach są głębsza integracja z aplikacjami trzecimi, lepsza personalizacja Siri i rozszerzone możliwości rozumienia kontekstu rozmowy.

Prawdziwe pytanie brzmi inaczej: czy Apple zdoła nadrobić lata zaległości wobec Google, zanim użytkownicy zaczną masowo przesiadać się na Pixele dla lepszego asystenta? Na razie nowa Siri to krok w dobrą stronę — choć Google i Amazon przyglądają się temu krokowi z pobłażliwym uśmiechem kogoś, kto dobiega do mety, gdy zwycięzca już dawno wziął prysznic.

Runway zebrał 200 milionów dolarów, ale Gen-5 czeka do marca

Runway zebrał 200 milionów dolarów, ale Gen-5 czeka do marca

Prev
Mistral Large 3 dostępny za darmo — europejski open-source uderza w OpenAI i Google

Mistral Large 3 dostępny za darmo — europejski open-source uderza w OpenAI i Google

Next