macOS 14 SonomaやiOS 17では文字入力した文章をKyokoなどの合成音声で読み上げてくれる「ライブスピーチ」機能が利用可能に。

macOS 14 SonomaやiOS 17で追加されたライブスピーチ機能 macOS 14 Sonoma
記事内に広告が含まれています。
スポンサーリンク

 macOS 14 SonomaやiOS 17ではKyokoなどの合成音声を利用し文字入力した文章を読み上げてくれる「ライブスピーチ」機能が利用可能になっています。詳細は以下から。

Apple Accessibility logo icon

 Appleは2022年09月にリリースした「iOS 16」「watchOS 9」で、アクセシビリティ機能の1つとしてiPhoneにペアリングされたApple WatchをiPhoneから操作できるApple Watchミラーリング機能を追加しましたが、

iOS 16 AppleWatch Mirroring

Apple Watchミラーリング

2023年09月にリリースされたiOS 17/iPadOS 17macOS 14 Sonomaでは、同じくアクセシビリティ機能の1つとして新たに合成音声を利用し文字入力した文章を読み上げてくれる「ライブスピーチ (Live Speech)」機能が利用できるようになっています。

macOS 14 SonomaやiOS 17で追加されたライブスピーチ機能

ライブスピーチ

 ライブスピーチ機能はmacOS 14 SonomaまたはiOS 17、iPadOS 17以降を搭載したMacやiPhone, iPad以外に、watchOS 10以降を搭載したApple Watch Series 3以降など以下のデバイスで利用可能で、

ライブスピーチサポートデバイス

  • Apple Silicon Mac
  • iPhone XS以降
  • iPad Air (第5世代)以降
  • iPad Pro 11インチ (第3世代)以降
  • iPad Pro 12.9 インチ (第5世代)以降
  • Apple Watch Series 3以降

利用するには、macOS 14 Sonomaではシステム設定アプリの[アクセシビリティ] → [ライブスピーチ]から、iOS/iPadOS 17やwatchOS 10では設定アプリの[アクセシビリティ] → [ライブスピーチ]からライブスピーチ機能を有効にします。

iOS 17でライブスピーチを有効にします

 ライブスピーチ機能で文字入力した文章を読み上げる音声はデフォルトではシステムボイス(Kyoko)ですが、その他のボイスファイルもダウンロードできるようになっており、日本語では男性の音声としてOtoyaとHattoriが、女性ではO-Renが追加できるようになっています。

Appleが提供する日本語のボイスデータ

 読み上げる音声を設定したら、後はmacOS 14 Sonomaの場合はメニューバーに表示されるライブスピーチアイコンをクリック、iPhoneやiPadのではサイドボタンを3回クリック、Apple WatchではDigital Crownを3回クリックすることでライブスピーチウィンドウを表示し、文章を入力することが出来ます。

ライブスピーチウィンドウを表示

 文章を入力し終えたら再生(▶)ボタンを押すだけで、先程設定したボイスで文章が読み上げられ、よく使う文章は保存しシステム設定/設定アプリで管理することが可能です。

ライブスピーチウィンドウ

 これまでもユーザーが入力した文章を読み上げてくれる(Speak Text)機能はmacOSやiOSに実装されていましたが、ライブスピーチ機能はFaceTimeや電話アプリと統合されており、通話相手は入力された文章の読み上げを聞くことが出来るので、声が出せない状況で相手に音声を伝いたい方は試してみてください。

Use Live Speech on iPhone FaceTime

FaceTime または電話 アプリを使用している場合、通話相手は読み上げの内容を聞くことができます。それ以外の場合、iPhoneのスピーカーから読み上げの内容が聞こえます。

iPhoneのライブスピーチでタイプ入力して読み上げる – Apple

コメント

タイトルとURLをコピーしました