インテル Parallel Universe マガジンの最新号 (英語) が公開されました。
掲載記事
- ディープラーニング・モデルの最適化を容易に
- ディープラーニング向け Habana* Gaudi2* プロセッサー
- インテル® ニューラル・コンプレッサーによる PyTorch* 推論の高速化
- PyTorch* 向けインテル® エクステンションによる PyTorch* の高速化
- 今すぐ Python* を高速化
編集者からのメッセージ
インテル® Innovation が開催されました
インテル® デベロッパー・フォーラムは、私のインテルでの初期のキャリアに大きな影響を与えたので、廃止されたときは残念に思いました。このメッセージの執筆中に開催されたインテル® Innovation 2022 は、インテル® デベロッパー・フォーラムを思い起こさせるものでした。重要な発表、テクニカルセッション、トラック、そして同僚や共同研究者、顧客との交流など、盛りだくさんの内容でした。アジェンダ、スピーカー情報、内容の詳細は上記のリンクに掲載されているので、ここではカンファレンスの全貌を振り返ることはしません。1 日目と 2 日目のハイライトでは、次のような大きな発表が行われました。
- インテル® デベロッパー・クラウドでは、第 4 世代インテル® Xeon® スケーラブル・プロセッサーやインテル® データセンター GPU など、最新および将来のハードウェア・プラットフォームを、発売前に開発やテストに利用できます。
- 新しいインテル® Geti™ プラットフォームにより、企業はコンピューター・ビジョン AI を迅速に開発して展開できます。
- インテルは、広範なアプリケーションに適応可能なプラグ型コパッケージ・フォトニクスを実現する、将来の量産システムインパッケージ(SiP)機能のプレビューを発表しました。
- オープンな oneAPI 仕様は、今後インテルの子会社である Codeplay によって管理されます。
- インテルは、ヘルスケアのユースケース向けの 3 つの新しい AI リファレンス・キットを発表しました。
本号では、持続可能な AI、モデルの最適化、ディープラーニングのパフォーマンスに注目しています。注目記事「運用環境でもハイパフォーマンスな AI」では、AI ワークフローで見落とされがちなコンポーネントである MLOps* を取り上げます。インテル® AI アナリティクス・ツールキット、MLflow*、AWS* を使用した MLOps* 環境の構築方法を紹介します。AI の利用やモデルの規模が拡大するにつれて、持続可能な AI が重要なトピックになっています。2 つ目の記事「ディープラーニング・モデルの最適化を容易に」ではこれについて説明します。続く「ディープラーニング向け Habana* Gaudi2* プロセッサー」では、すでに効率的なこのアーキテクチャーの改良について、それを裏付ける印象的な MLPerf* ベンチマーク結果とともに解説します。「インテル® ニューラル・コンプレッサーによる PyTorch* 推論の高速化」では、CPU や GPU 上でディープラーニングの推論のモデルサイズを小さくして高速化する、新しいオープンソースの Python* ライブラリーを説明します。最後に、「今すぐ Python* を高速化」では、パフォーマンスを大幅に向上するインテルのオープンソース拡張を紹介します。
そこから、Python* を使用したヘテロジニアス・コンピューティングに目を向けます。「今すぐ Python* を高速化」では、アクセラレーター・アーキテクチャーのカンブリア爆発に備えるため、我々の名誉編集長である James Reinders が手引きします。
コードの現代化、ビジュアル・コンピューティング、データセンターとクラウド・コンピューティング、データサイエンス、システムと IoT 開発、oneAPI を利用したヘテロジニアス並列コンピューティング向けのインテル・ソリューションの詳細は、intel.com/oneapi (英語) を参照してください。
Henry A. Gabb
2022 年 10 月