Ketika Apple melancarkan macOS 12 Monterey bulan lalu, ia menarik garis antara Mac baru yang berkuasa M1 dan model-model yang masih menggunakan cip Intel. Namun sekarang, nampaknya garis ini telah kabur, sedikitnya.
Terdapat sekurang-kurangnya enam ciri baru besar di macOS Monterey yang diharapkan memerlukan Mac M1 , tetapi sekarang beta macOS 12 terbaru membawa sekurang-kurangnya satu daripadanya ke Mac berperisa Intel-Teks Langsung dalam Foto.
Perubahan tersebut hadir pada beta macOS 12 keempat, yang diluncurkan kepada pemaju awal minggu ini, yang dengan cepat diikuti oleh beta publik ketiga dari build yang sama. Tidak banyak yang menarik mengenai beta macOS terbaru-Apple secara ringkas mencadangkan bahawa Universal Control akhirnya diaktifkan, tetapi sayangnya, itu ternyata terlalu awal.
Namun, yang tersimpan dalam nota pelepasan adalah pengesahan serong bahawa Teks Langsung ditambahkan ke Intel Mac juga:
Teks Langsung kini berfungsi di semua komputer Mac yang menyokong macOS Monterey.
Apple sama sekali tidak menyebut perkataan”Intel”dalam nota pelepasan, tetapi”semua komputer Mac”secara semula jadi merangkumi banyak varian Intel yang telah dijual Apple di masa lalu-dan masih laku hingga kini.
Sebagai teori Rene Ritchie , Apple nampaknya telah berubah arah dan menambahkan Teks Langsung”berdasarkan permintaan”, tetapi ini juga membantu bahawa sokongan untuk Teks Langsung di Mac tidak perlu dilakukan dalam masa nyata seperti yang berlaku di iPhone dan iPad.
macOS Monterey Beta 4 merangkumi Teks Langsung untuk Intel Mac 🎉
Sepertinya Apple mengutamakannya berdasarkan permintaan, tetapi ia dibuat lebih mudah kerana kekurangan masa nyata syarat untuk sistem kamera
(Oleh itu, bukannya menendangnya ke ANE, ia hanya akan memproses secara oportunis) pic.twitter.com/vM5Nd7TGh8
-Rene Ritchie (@reneritchie) 27 Julai 2021
Meskipun sebagian besar Mac Apple memiliki kamera FaceTime, bahkan model bertenaga M1 tidak akan memungkinkan Anda melihat Teks Langsung melalui kamera. Ini kelihatan wajar kerana kamera MacBook dan iMac direka untuk perkara seperti persidangan video, dan kebanyakan pengguna tidak akan menunjukkannya pada tanda dan penerimaan seperti yang mereka lakukan dengan iPhone.
Sudah tentu, anda masih dapat mengekstrak Teks Langsung dari gambar yang diambil dengan kamera FaceTime Mac-anda tidak akan dapat melakukannya sambil melihat pratonton langsung gambar tersebut. Sebagai gantinya, anda harus memuatkannya dalam Foto atau Pratonton.
Seperti yang dijelaskan oleh Ritchie, ini bermaksud Teks Langsung di Mac tidak benar-benar memerlukan Mesin Neural M1. Walaupun model berkuasa M1 hampir pasti akan memanfaatkannya untuk pemprosesan yang lebih pantas, versi Intel dapat menanganinya” oportunis .”Ini bermaksud ia mungkin berjalan lebih perlahan pada Intel Mac yang lebih lama, tetapi sekurang-kurangnya ia mungkin berlaku.
Teks Langsung dalam Foto
Manfaat sebenar ciri Teks Langsung baru akan dijumpai di iOS 15 pada iPhone, di mana pengguna akan dapat mengekstrak teks melalui iPhone Aplikasi kamera.
Anda dapat menyalin teks dari apa sahaja yang anda lihat hanya dengan menyeret teks pada pratonton foto untuk memilihnya dan menyalinnya ke papan keratan anda. Anda bahkan boleh menggunakan pengesan data iOS untuk membuat panggilan terus ke nombor telefon yang dikenali, atau menavigasi ke alamat yang dikenali.
Ini adalah ciri ajaib, dan tidak hanya berfungsi di aplikasi Kamera dan Foto. Ini adalah fitur tingkat sistem yang harus berfungsi untuk foto apa pun yang anda lihat, di mana saja di peranti anda. Sudah ada beberapa pengecualian dengan aplikasi tertentu yang tidak menggunakan API foto iOS standard, seperti Facebook dan Instagram, tetapi ini mungkin hanya menunggu aplikasi ini dikemas kini.
Yang paling ketara, Apple melakukan semua pemprosesan secara langsung pada cip siri-A atau siri-M di iPhone, iPad, atau Mac anda. Data foto anda tidak pernah meninggalkan peranti anda untuk tujuan ini, dan pelayan Apple sama sekali tidak menganalisis foto anda untuk teks. Ini serupa dengan pemprosesan foto di peranti untuk perkara seperti wajah dan objek yang telah dilakukan Apple sejak iOS 10 pada tahun 2016.
Sudah tentu, jika anda menyegerakkan foto anda dengan Perpustakaan Foto iCloud, maka foto akan disimpan di pelayan Apple, tetapi kuncinya adalah bahawa Apple tidak melakukan analisis komputasi pada foto yang disimpan di sana. Setiap perkhidmatan lain yang melakukan analisis semacam ini bergantung pada pelayan awan yang kuat untuk melakukan pengangkatan yang berat, yang bermaksud bahawa semua teks dalam foto anda terdapat dalam pangkalan data di pelayan syarikat itu. Pendekatan Apple adalah kemenangan besar untuk privasi.
Walau bagaimanapun, syarat ini untuk pemprosesan pada peranti adalah tepat mengapa ciri Live Photos pada asalnya tidak akan disokong pada Intel Mac. Apple mungkin merasakan bahawa cip Intel tidak sesuai dengan tugasnya, dan yang lebih penting lagi, kod untuk menangani ini dibina untuk Neural Engine milik Apple, yang hanya terdapat pada cip A11 Bionic 2017 dan siri A kemudian, dan tentu saja, cip M1 baru yang menggerakkan Mac terbaru Apple. Ini adalah sebab yang sama bahawa anda memerlukan sekurang-kurangnya iPhone XS/XR untuk menggunakan Teks Langsung di iOS 15 .
Dalam kes Intel Mac, bagaimanapun, Apple jelas menyedari bahawa ia dapat mengumpulkan proses foto untuk Teks Langsung, dan bukannya perlu melakukannya dalam masa nyata. Masih belum jelas bagaimana pendekatan ini mungkin berbeza-kemungkinan Apple sedang menganalisis foto di latar belakang dan menyimpan teks untuk kemudian-tetapi hasilnya sama: akan ada satu lagi ciri untuk pengguna Intel Mac untuk nikmati apabila macOS Monterey dilancarkan akhir tahun ini.