インテル Parallel Universe 57 号日本語版の公開

その他

parallel_v57

インテル Parallel Universe マガジンの最新号 (英語) が公開されました。

注目記事: AI PC により大規模な LLM 開発がデスクトップで可能に

掲載記事



編集者からのメッセージ

変化する AI ハードウェアとソフトウェアの状況

本号に入る前に、私の休暇中、前号の編集長を引き受けてくれた The Parallel Universe の名誉編集者 James Reinders 氏に感謝します。 MLCommons は最近、「新しい MLPerf* 推論ベンチマーク結果が生成 AI モデルの急速な成長を浮き彫りに」 (英語) という記事を公開しました。インテルは初めてインテル® Gaudi® 2 アクセラレーターの結果を MLCommons に提出し、このアクセラレーターが AI アプリケーションに低コストの代替手段を提供する方法を実証しました。

「業界には、高性能で高効率のコンピュート・オプションによって、生成 AI エンタープライズ製品のギャップに対処するという明確なニーズがあります。最新の MLPerf* の結果は、企業や顧客が標準ネットワークとオープン・ソフトウェアを備えた、よりコスト効率が高くスケーラブルなシステムを求めており、生成 AI をより多くの顧客が利用しやすくする上で、インテル® Gaudi® アクセラレーターが市場にもたらす独自の価値を示しています。

インテル コーポレーション
データセンター AI 製品管理担当 VP & GM
Zane Ball

(出典 (英語))

2024年秋に発売予定のインテル® Gaudi® 3 AI アクセラレーターの MLPerf* の結果を見るのが楽しみです。

私は最近、AI エンドユーザーの観点から何ができるかを確認するため、ローエンドの AI PC を試しています。一方、同僚の Tony Mongkolsmai は、AI 開発者がローカルで何ができるかを確認するため、ハイエンドの AI PC を試しています。本号の特集記事「AI PC により大規模な LLM 開発がデスクトップで可能に」では、大規模なモデルを開発する際、リモートのデータセンターやクラウドシステムに替わって、ローカルシステムで便利かつ安全に本格的な開発を行う方法を紹介します。

続く一連の記事では、AI に関連するさまざまなトピックを取り上げます。「低ビットの量子化されたオープン LLM リーダーボード」では、特定のクライアントに対して高品質のモデルを見つける新しいツールについて説明します。「Intel Vision 2024 のエンタープライズ AI アート展」では、「展示会」を振り返り、同様のアート作品を生成するチュートリアルを提供します。この記事では、「アート」の定義は非常に緩やかですが、結果として得られる画像と実用的な応用は魅力的です。「Transformers による GGUF モデルの高速化」では、GGUF 形式 (モデルの保存と処理効率を最適化する新しいバイナリー形式) を活用し、低ビット LLM 推論を高速化する方法を紹介します。「llama.cpp を使用したインテル® GPU 上での LLM 実行」では、新しい SYCL* バックエンドを使用して、インテル® GPU 上で llama.cpp (人気が高まっている軽量で高性能な LLM フレームワーク) を実行する方法を説明します。

そして、MatLogica 社 CTO の Dmitri Goloubentsev 氏による「Python* と C++ 分析によるシミュレーションと後方伝播の高速化」に関する記事を紹介し、最後に「インテル® データ・ストリーミング・アクセラレーターを使用したメモリー帯域幅依存カーネルの高速化」で、ソフトウェア・パイプラインに対する CPU とアクセラレーターのハイブリッド・アプローチについて説明します。

AI とデータサイエンス、コードの現代化、ビジュアル・コンピューティング、データセンターとクラウド・コンピューティング、システムと IoT 開発、oneAPI を利用したヘテロジニアス並列コンピューティング向けのインテル・ソリューションの詳細は、Tech.Decoded (英語) を参照してください。

Henry A. Gabb
2024年7月

タイトルとURLをコピーしました