はじめに
Swiftビギナーズ勉強会第25回@ヴァル研究所に参加してきました。
その中でのデモについての補足です。
WatsonのSDKのデモについて
Swift用のSDKが用意されています。参考にある github のリンク参照。 スタンダートに、Speech to Text をデモがてらビルドします。
デモのソースコードは、以下にあります。
ほぼ、ここの GitHub にある手順通りです。
- 適当なディレクトリで、gitclone します。
$ git clone https://github.com/watson-developer-cloud/speech-to-text-swift.git
- carthage で、ライブラリ導入
$ cd speech-to-text-swift $ carthage update --platform iOS
- Speech to Text の有効化
Bluemixのダッシュボード上で、Speech to Text を選択して有効化します。
「サービス資格情報」→「資格情報の表示」とすると、JSON のファイルが表示されるので、その username と、password を控えておきます。
- 認証ファイルの作成
認証用のファイルのテンプレートをコピーします。
$ cp CredentialsExample.swift Credentials.swift
「Speech to Text.xcodeproj 」を、Xcode で開きます、Credentials.swift を Xcode 上で先ほどの認証ファイルを定義します。
- 日本語化対応
このデモアプリをそのままビルドすると、英語しか聞いてくれないので、日本語対応にします。 MicrophoneViewController.swift ファイルの 65行目付近を、1箇所変更するだけです。
- ビルドして実行
ビルドして実行すると、AudioFile や、Microphone の音声を拾って認識してくれます。