Visual Look Up が間もなく行うことは、写真にキャプチャされたさまざまな3次元要素。上部に表示される小さなインタラクティブなポップアップを押すことで、それらの情報を検索できます。 Appleによれば、犬の品種、花の属、特定のランドマークの名前と地理的位置などを簡単に分類するのに役立ちます。
WWDCに続くAppleのニュースリリースでの Visual Look Up の報道は、次のような控えめな要約です。
Google レンズを使用すると、テキストをリアルタイムで翻訳し、周囲をスキャンしながら拡張現実の画面に重ねて表示することもできます。 Appleのライブテキストも翻訳をサポートしますが、レンズのARスタイルではなく、画像をフリーズしてそこに重ね合わせます。
当然のことながら、Appleは<!-HTMLTagInstanceをコピーしたとして非難されています。 html-tag-8c151dc5-28ba-4366-8e62-cebe51fe59e0-> Google Visual Look Up を搭載していましたが、インテリジェントな写真分析テクノロジーは遅かれ早かれ、そのデバイスに到達することになるでしょう。これは単にプラジアリズムと呼ぶことはできませんが、避けられない進歩の足跡をたどるようなものです。
Googleレンズは、もともとGoogle独自のピクセル行ですが、急速に成長し、それを超えて広がりました。一方で、Visual Look Up が Android で利用できるようになるかどうかは非常に疑わしいです。しかし、Appleは常に、コンポーネントが相互に最適に機能するクローズドエコシステムの作成に傾倒してきたため、これは予想されることです。
Appleは、機能のセットがまだ限られている場合でも、将来的に Visual Look Up で何か特別なことをすることを期待しています。