この記事は、The Parallel Universe Magazine 54 号に掲載されている「Boost Business with AI」の日本語参考訳です。原文は更新される可能性があります。原文と翻訳文の内容が異なる場合は原文を優先してください。
AI は、未来のテクノロジーではなく、すでに現実のものとなっています。小売、銀行と金融、セキュリティー、ガバナンス、医療、産業は、AI が日常的に導入されている分野のほんの一部です。AI が生成したコンテンツと人間が生成したコンテンツの見分けがつかなくなる時代がそこまでやってきています。自然言語処理 (NLP) は、機械と人間の間の対話から 2 人の人間の間の対話に近いレベルまで進化しています。この進化により、政府、起業家、金融および医療分野の企業に新たな機会が訪れています。
さまざまなマシンラーニング (ML) タスクが容易になるように、インテルと Red Hat は新しいソリューションを開発しています。データマイニング、モデルのデプロイ、トレーニング、プロセスの自動化、データ転送はすべて、Red Hat* OpenShift* Data Science などの製品により強化されます。パフォーマンス向上のため、インテルは、インテル® アドバンスト・マトリクス・エクステンション (インテル® AMX) を含む新しいテクノロジーとアクセラレーターを提供しています。
問題ステートメント
AI は、さまざまな方法で活用できるビジネス上の利点を企業にもたらします。NLP は、大規模なテキストデータを効率良く解析することで、不正検出に役立ちます。感情分析を実行して、医療をサポートすることもできます。NLP により、より自然な形式で人間と機械の対話が可能になります。この記事では、企業に関する質問に答える AI モデルの簡単な使用法を示します。インテリジェント・アシスタントを使用すると、応答時間が短縮され、顧客対応に必要な人員の数が減り、コストが削減され、顧客の利便性が向上します。
アプローチ
目標は、製品、価格、販売、企業に関する顧客の質問に答えることです。次の例は、オープンソースのコンポーネントを使用して、顧客と対話できるチャットボットをセットアップする簡単な方法を示しています。いくつかのプログラミングと開発を行うことで、ビジネスをサポートする、完全に機能する実用的なアプリケーションに拡張および変換できます。
この目標を達成するため、ここでは BERT (Bidirectional Encoder Representations from Transformers の略) とオープンソースの BERT 質問応答 Python* デモ (英語) を使用しています。次の例は、より迅速な応答を提供するため、Red Hat* OpenShift* Data Science プラットフォームと OpenVINO™ ツールキットの Operator を、インテル® AMX を搭載した第 4 世代インテル® Xeon® スケーラブル・プロセッサー上で実行しています。
テクノロジー
Red Hat* OpenShift* Data Science
Red Hat* OpenShift* Data Science (英語) は、インテリジェント・アプリケーションのデータ・サイエンティストやプログラマー向けのサービスであり、セルフマネージドまたはマネージド・クラウド・プラットフォームとして利用できます。ML モデルを実際の環境にデプロイする前に、迅速に開発、トレーニング、テストできる、完全にサポートされた環境を提供します。オンプレミス、パブリッククラウド、データセンター、エッジのいずれであっても、コンテナ上の本番環境で ML モデルをデプロイし、Red Hat* OpenShift* Data Science からほかのプラットフォームに簡単にエクスポートできます。
ML に Red Hat* OpenShift* Data Science を使用すると、多くの利点があります。このプラットフォームには、Jupyter Notebook*、TensorFlow*、PyTorch*、OpenVINO™ など、データ・サイエンティストがワークフローで使用するさまざまな商用パートナーとオープンソースのツールおよびフレームワークが含まれています。Red Hat* OpenShift* Data Science は、安全でスケーラブルな環境を提供します。
インテル® AMX
インテル® AMX は、CPU 上のディープラーニングのトレーニングと推論のパフォーマンスを向上させる新しい内蔵アクセラレーターです。AI の処理が高速化され、パフォーマンスが最大 3 倍向上します。自然言語処理、推奨システム、画像認識などのワークロードに最適です。第 4 世代インテル® Xeon® スケーラブル・プロセッサー上のパフォーマンスは、インテル® oneAPI ベース・ツールキットの一部であるインテル® oneAPI ディープ・ニューラル・ネットワーク・ライブラリー (インテル® oneDNN) を使用して微調整でき、TensorFlow* と PyTorch* AI フレームワーク、およびインテル® ディストリビューションの OpenVINO™ ツールキットに統合できます。これらのツールキットは Red Hat* OpenShift* Data Science で使用できます。