Appleは、障害を持つ人々のために設計された新機能を発表しました。これは、まもなく同社のデバイスのユーザーが利用できるようになります。これらには、ライブキャプション、強化されたApple Watchジェスチャーコントロール、iPhoneでのスマートウォッチ画面ミラーリング、および今年後半の将来のソフトウェアアップデートで一般公開されるその他のイノベーションが含まれます。
まず、音声をリアルタイムでテキストに変換し、その結果を字幕形式で画面に表示できる「ライブ字幕」機能の登場に注目します。この機能は、ビデオを視聴するときだけでなく、インスタントメッセンジャーやビデオ会議サービスを使用するときにも利用できます。ユーザーは、字幕のフォントサイズを調整したり、入力してメッセージに応答したりできます。入力すると、スクリーンリーダーによって対話者に通知されます。
この機能は、聴覚障害のあるユーザーに役立ちます。ライブキャプションベータは、米国とカナダで今年後半に開始されます。これは、iPhone 11以降のモデルのユーザーだけでなく、AppleA12Bionicプロセッサを搭載したiPadおよび同社独自のプロセッサ上に構築されたMacコンピュータでも利用できるようになります。
これに伴い、ジェスチャーを使用してAppleWatchスマートウォッチを制御するという点で可能性が広がります。たとえば、ブラシをダブルスクイーズすると、通知を閉じたり、スクリーンショットを撮ったり、メディアの再生を一時停止または再開したり、ワークアウトを開始したりできます。
Apple Watchスマートウォッチは、障害や運動障害のある人にとって使いやすくなります。このようなユーザーは、ペアリングされたiPhoneの画面で時計画面のミラーリング機能を使用できるようになります。これにより、ガジェットを操作するプロセスが簡素化されます。 iOS 14では、開発者は、火災警報器や流水の音などの特定の音を認識して、難聴のユーザーにタイムリーに警告する機能を実装しました。間もなく、ユーザーは自分のニーズに応じて音声認識をカスタマイズできるようになります。
VoiceOverスクリーンリーダー、Speak Selection、およびSpeak Screen機能は、ベンガル語、スロベニア語、バスク語、ベトナム語など、20の追加言語をサポートします。Macでは、VoiceOverのテキストチェッカーがテキストのフォーマットの問題をチェックします。視覚障害者向けに、ドアを検出できるドア検出機能が統合されており、LIDARが統合されたiPhoneとiPadで利用できるようになります。
もう1つの新機能であるBuddyControllerを使用すると、2つのゲームコントローラーを1つに組み合わせて、一方のユーザーがもう一方のユーザーをゲームで支援できるようになります。 Apple Booksの追加のビジュアル設定、Siri応答タイムアウトを変更する機能など、他のソフトウェアの革新も期待されています。
2022-05-18 11:19:10
著者: Vitalii Babkin