Whisper:音声認識の革新
Whisperは、
OpenAIが開発した音声認識および文字起こしのための機械学習モデルです。2022年9月に
オープンソースソフトウェアとして公開されたこのモデルは、英語を含む多くの言語の音声をテキストに変換する機能を持っています。また、英語以外の言語を英語に翻訳することもでき、その多機能性が注目を集めています。
OpenAIによれば、Whisperは多様な訓練データを利用することにより、アクセント、背景雑音、専門用語の認識精度が大幅に向上したとのことです。この進化した音声認識技術は、従来の手法と比較しても非常に高いパフォーマンスを発揮しています。
学習手法とアーキテクチャ
Whisperは、弱
教師あり学習を利用した深層学習音響モデルとして設計されています。具体的には、エンコーダ・デコーダトランスフォーマーアーキテクチャを採用しており、これにより入力音声を処理し、その音声をテキストに変換するプロセスが行われます。音声は最大30秒のチャンクに分割され、その後メル周波数ケプストラムに変換され、エンコーダに送られます。デコーダは、これに基づいてテキストキャプションを予測するように訓練されます。
Whisperは2022年12月8日にその最新バージョンであるWhisper V2をリリースし、その後2023年11月にはWhisper V3も発表されました。これらのバージョンは、さらなる性能向上を目指して改良されてきました。
背景と発展
音声認識技術は、長い歴史を経て進化してきました。初期のアルゴリズムは統計的手法に基づいていましたが、2010年代になると大規模なデータセットと計算リソースの向上に伴い、深層ニューラルネットワークが利用されるようになりました。この流れの中で、音声認識のモデルは深層学習のアプローチを取り入れ、高い認識精度を達成しています。
2017年に
Googleが導入したTransformerアーキテクチャは、音声認識に限らず多くの機械学習の課題に革新をもたらしました。特に、これを応用した弱
教師あり学習のアプローチはアクチュアル・データをもとに進化する可能性を秘めています。そんな中、
OpenAIは2021年に既存のデータ以外から新たに質の高いデータセットを得るため、
YouTube動画などの
ポッドキャストから音声データを取得し、Whisperの開発を進めました。
性能評価
Whisperは、多言語かつマルチタスクの68万時間にわたるデータを使用して半
教師あり学習で訓練されています。その中で英語以外の音声データが約5分の1を占めています。これにより、一般的な音声認識タスクでは他のモデルに比べてエラー率を約50%削減することに成功しました。しかし、訓練データでよく使われない言語では認識精度が低下する傾向が見られます。
Whisperは、音声認識だけでなく、さまざまな用途での応用が可能なモデルとして、多くの企業や研究機関にとって魅力的な選択肢となっています。これにより、今後の音声認識技術の発展にも大きな影響を与えることが期待されています。