This is a cache of https://b.hatena.ne.jp/q/TPU. It is a snapshot of the page as it appeared on 2025-11-30T12:38:15.793+0000.
TPUの人気記事 56件 - はてなブックマーク

並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 56件

新着順 人気順

TPUの検索結果1 - 40 件 / 56件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

TPUに関するエントリは56件あります。 人工知能GoogleAI などが関連タグです。 人気エントリには 『くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 | Google Cloud 公式ブログ』などがあります。
  • くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 | Google Cloud 公式ブログ

    くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 大阪を起点に日本全国 47 都道府県すべてに店舗を展開する大規模回転寿司チェーンくら寿司株式会社(以下、くら寿司)。浅草や道頓堀、原宿、押上に「食」と「エンターテイメント」の融合を掲げ、「ジャパンカルチャー」の発信拠点とするグローバル旗艦店をオープンするなど、とりわけ “体験” にこだわる同社が、最新のクラウド テクノロジーをどのように活用しているのか。その取り組みと成果を、テクノロジー開発部の皆さんに伺いました。 利用しているサービス: Google Kubernetes Engine、Compute Engine、App Engine、Edge TPU 利用しているソリューション: アプリケーションのモダナイゼーション コンテナや AI など Google Clo

      くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 | Google Cloud 公式ブログ
    • 「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる

      AIの開発に欠かせない機械学習には、GPUやNPU、TPUなどの処理チップが用いられていますが、それぞれの違いは分かりにくいものです。そんなCPUやGPU、NPU、TPUの違いをGoogleやクラウドストレージサービスを展開するBackblazeがまとめています。 AI 101: GPU vs. TPU vs. NPU https://www.backblaze.com/blog/ai-101-gpu-vs-tpu-vs-npu/ Cloud TPU の概要  |  Google Cloud https://cloud.google.com/tpu/docs/intro-to-tpu?hl=ja ◆CPUとは? CPUは「Central Processing Unit」の略称で、PCでの文書作成やロケットの進路計算、銀行の取引処理など多様な用途に用いられています。CPUでも機械学習を行うこ

        「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる
      • TPU vs GPU、なぜGoogleは長期的にAI競争に勝てる立場にあるのか?

        一般的に機械学習の演算処理には並列計算が得意なGPUが使われます。しかし、Geminiなどを開発するGoogleは、より機械学習に最適なTPUを自社で開発しています。GoogleのTPUとGPUは何が違うのか、そしてGoogleがTPUを使い続ける戦略とはどういうものなのかについて、AIスタートアップの元CEOであるリハード・ジャーク氏が解説しています。 The chip made for the AI inference era – the Google TPU https://www.uncoveralpha.com/p/the-chip-made-for-the-ai-inference Googleが独自のチップ開発に乗り出したきっかけは、技術的なブレイクスルーではなく、将来の計算資源に対する危機感でした。Googleは2013年頃に、もしすべてのAndroidユーザーが音声検索機

          TPU vs GPU、なぜGoogleは長期的にAI競争に勝てる立場にあるのか?
        • コードを実行できるノートブック「Google Colab」の公式「VS Code」拡張機能が登場/セットアップ不要でGPU/TPUリソースが無料で使える「Jupyter Notebook」サービス

            コードを実行できるノートブック「Google Colab」の公式「VS Code」拡張機能が登場/セットアップ不要でGPU/TPUリソースが無料で使える「Jupyter Notebook」サービス
          • [速報]Google、1エクサフロップを超える性能を持つ「TPU v4」発表、Google史上最高性能のシステム。Google I/O 2021

            Googleは、5月19日未明に開催したオンラインイベント「Google I/O 2021」で、同社が開発した新たなAI専用のシステム「TPU v4」を発表しました。 参考:Google、機械学習専用の第三世代プロセッサ「TPU 3.0」を発表。Google初の液冷システム採用。Google I/O 2018 「Pod」と呼ばれる1つのシステム単位あたり4096個のチップが搭載され、チップは超高速なネットワークで接続されています。 これによりPodは1エクサフロップを超える高い演算性能を実現。Google CEOのサンダー・ピチャイ氏は「私たちにとって歴史的マイルストーンだ」と次のように基調講演で話しました。 「This is the fastest system, we ever deployed at Google. Historic milestone for us.」(これまでGo

              [速報]Google、1エクサフロップを超える性能を持つ「TPU v4」発表、Google史上最高性能のシステム。Google I/O 2021
            • CPU・GPU・TPUをワンチップで担う「Tachyum Prodigy」のCPUスペックが明らかに、最大クロック周波数5.7GHz・128コア・TDP 950Wのモンスタースペック

              半導体企業のTachyumが、CPU・GPU・TPUの機能を単一のアーキテクチャに統合したチップ「Prodigy」を発表しました。ProdigyのCPUスペックは最大128コア、動作周波数は5.7GHz、16チャネルDDR5メモリ、TDPは950Wとなっており、テクノロジーメディアのWccftechは「非常識なスペック」と評しています。 Tachyum's Prodigy CPU Specs Unveiled: 5nm Universal Processors With Up To 128 Cores, 5.7 GHz Clocks, 16-Channel DDR5-7200 Memory Support & 950W TDP https://wccftech.com/tachyums-prodigy-cpu-specs-unveiled-5nm-universal-processors-

                CPU・GPU・TPUをワンチップで担う「Tachyum Prodigy」のCPUスペックが明らかに、最大クロック周波数5.7GHz・128コア・TDP 950Wのモンスタースペック
              • グーグルのTPUに突如脚光、エヌビディアの牙城崩せるか-QuickTake

                人工知能(AI)向け半導体市場でエヌビディアが支配的な地位を築いてきた間、顧客の間では競争相手の登場を望む声が絶えなかった。だが、有力な代替候補の一つは、実は目の前に存在していたようだ。 アルファベット傘下のグーグルは約10年前、自社の検索エンジンを高速化し、処理効率を高めるために独自の半導体「テンソル・プロセッシング・ユニット(TPU)」を導入した。その後、このプロセッサーは、同社のAIアプリケーションにおける機械学習処理にも活用されるようになった。 グーグルは足元でTPUの大型契約を相次いで獲得しており、同社の半導体がエヌビディア製のAIアクセラレーターに代わる有力な選択肢となり得ることを示している。 以下では、TPUの仕組みや特徴、可能性、そして課題を詳しく検討する。 GPUとTPUの違いは何か  いずれの半導体も、AIモデルの学習に伴う膨大な計算処理をこなせるが、その仕組みやアプロ

                  グーグルのTPUに突如脚光、エヌビディアの牙城崩せるか-QuickTake
                • Google、「Gemma 3」を発表 ~単一GPU/TPUにおさまるものとしてはもっとも高性能/「Gemini 2.0」の成果をベースに視覚対応、ロングコンテキスト、エージェント対応

                    Google、「Gemma 3」を発表 ~単一GPU/TPUにおさまるものとしてはもっとも高性能/「Gemini 2.0」の成果をベースに視覚対応、ロングコンテキスト、エージェント対応
                  • Astrategyを支える技術: gRPC, Elasticsearch, Cloud TPU, Fargate... SaaS型AIサービスの内側の世界

                    dummy GA 新しいURLに転送しています… https://stockmark-tech.hatenablog.com/entry/2021/05/10/000000...

                      Astrategyを支える技術: gRPC, Elasticsearch, Cloud TPU, Fargate... SaaS型AIサービスの内側の世界
                    • Googleの新TPU「Ironwood」が登場。El Capitanを24倍上回る42.5EFLOPSを実現

                        Googleの新TPU「Ironwood」が登場。El Capitanを24倍上回る42.5EFLOPSを実現
                      • OpenAIがChatGPTなどの推論処理にGoogleのTPUを使用開始したとの報道、NVIDIA以外のAI処理チップを使うのは初

                        Googleが独自に開発した機械学習向けプロセッサ「TPU」を、OpenAIが使い始めているとロイターが報じました。Google Cloudを通じて利用し、推論のコスト削減を目指しているとのことです。 OpenAI turns to Google's AI chips to power its products, source says | Reuters https://www.reuters.com/business/openai-turns-googles-ai-chips-power-its-products-information-reports-2025-06-27/ Google Convinces OpenAI to Use TPU Chips in Win Against Nvidia — The Information https://www.theinformatio

                          OpenAIがChatGPTなどの推論処理にGoogleのTPUを使用開始したとの報道、NVIDIA以外のAI処理チップを使うのは初
                        • Stable Diffusion TPU版の使い方 - 電通総研 テックブログ

                          電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusion(というよりdiffusers)でTPU(JAX / Flax)を使った並列実行バージョンがリリースされたので、早速試してみました。 オリジナルのNotebookはこちら。 僕が作ったNotebookはこちら。 今回は、TPUを使うので、Google Colabに特化しています。自分で1から試す方は、メニューのEdit -> Notebook settingsでTPUを使うように設定してください。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す

                            Stable Diffusion TPU版の使い方 - 電通総研 テックブログ
                          • Google、生成AIを支える新TPU「Trillium」の一般提供開始

                            米Googleは12月11日(現地時間)、同社の第6世代TPU(Tensor Processing Unit)、「Trillium」のGoogle Cloudでの一般提供開始を発表した。Trilliumは今年のGoogle I/Oで予告していたTPUだ。 TPUは、Googleが開発した特定用途向け集積回路(ASIC)で、AIモデルのトレーニングや推論に最適化されている。Trilliumは同日発表の「Gemini 2.0」のトレーニングにも使われた。 Trilliumは、先代と比較してトレーニング性能は4倍以上、推論スループットは最大3倍、エネルギー効率は67%、チップ当たりのピークコンピューティング性能は4.7倍、広帯域メモリ(HBM)容量は2倍、チップ間相互接続(ICI)帯域幅は2倍に向上したという。 Trilliumのスケーリング機能はほぼ線形なため、高速インターチップインターコネク

                              Google、生成AIを支える新TPU「Trillium」の一般提供開始
                            • An in-depth look at Google’s first Tensor Processing Unit (TPU) | Google Cloud Blog

                              There’s a common thread that connects Google services such as Google Search, Street View, Google Photos and Google Translate: they all use Google’s Tensor Processing Unit, or TPU, to accelerate their neural network computations behind the scenes. We announced the TPU last year and recently followed up with a detailed study of its performance and architecture. In short, we found that the TPU delive

                                An in-depth look at Google’s first Tensor Processing Unit (TPU) | Google Cloud Blog
                              • GoogleとHugging Faceが戦略的提携、Hugging FaceユーザーがNVIDIAのH100やGoogleのTPUなどの強力な計算資源を利用可能に

                                機械学習モデルの配布やデモの実行が可能なAI開発プラットフォーム「Hugging Face」がGoogle Cloudと戦略的パートナーシップを提携しました。この提携により、Hugging FaceのユーザーはGoogle Cloudの強力な計算資源を手軽に利用可能となります。 Hugging Face and Google partner for open AI collaboration https://huggingface.co/blog/gcp-partnership Google Cloud and Hugging Face Announce Strategic Partnership to Accelerate Generative AI and ML Development - Jan 25, 2024 https://www.googlecloudpresscorner.

                                  GoogleとHugging Faceが戦略的提携、Hugging FaceユーザーがNVIDIAのH100やGoogleのTPUなどの強力な計算資源を利用可能に
                                • Googleが推論モデルの処理に最適化した第7世代TPU「Ironwood」を発表、1チップ当たり192GBのメモリを搭載し1ポッド当たりの性能は最強スパコン「El Capitan」の24倍以上

                                  GoogleはAI処理プロセッサ「TPU」を独自開発しています。新たに、第7世代TPU「Ironwood」が2025年4月9日に登場しました。 Ironwood: The first Google TPU for the age of inference https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/ Ironwoodの見た目はこんな感じ。IronwoodはMixture of Experts(MoE)を採用した大規模言語モデルや、高度な推論タスクを実行できる推論モデル向けに最適化されています。 MoEモデルや推論モデルを高速処理するには、大規模な並列処理と効率的なメモリアクセスが必要です。Ironwoodは帯域幅7.4TbpsのHBMを1チップ当たり192GB搭載しており、1チップ当たりの処

                                    Googleが推論モデルの処理に最適化した第7世代TPU「Ironwood」を発表、1チップ当たり192GBのメモリを搭載し1ポッド当たりの性能は最強スパコン「El Capitan」の24倍以上
                                  • グーグル、「Cloud TPU VM」を一般提供

                                    Google Cloudはブログ記事の中で、「これらは大量のデータを使用する傾向が強く、従来の機械学習インフラでは、トレーニングやデプロイメントが困難かつ高価になる場合がある」と述べている。 「Cloud TPUによるアクセラレーションの埋め込みは、この問題を低いコストで解決することができる。Embedding APIは、専用のインターコネクトで相互接続されたポッド内の数百のCloud TPUチップで自動的にシャーディングを行うことにより、埋め込みテーブルなどの大量のデータを効率的に処理することができる」 さらにTPM VMは、3つの主要なフレームワーク(「TensorFlow」「PyTorch」「JAX」)に対応できるように設計されており、用意された3つの最適化環境から、それぞれのフレームワークを簡単にセットアップできるようになっている。 Google Cloudはまた、TPU VMは入

                                      グーグル、「Cloud TPU VM」を一般提供
                                    • Google ColaboratoryのTPUランタイムを使ってKeras Tunerでパラメタ探索

                                      この記事は  GMOアドマーケティングAdvent Calendar 2020   23日目の記事です。 みなさんこんにちは、GMOアドマーケティングのM.H.と申します。 突然ですがみなさんは機械学習する時にどのような環境で実行していますか?Google Colaboratoryでは、制限はありますが無料でTPUを使用し、高いパフォーマンスで学習を進めることができます。 今回はこのTPUを使って、モデル内のハイパーパラメータを自動で探索してくれるKeras Tunerを使っていく方法と注意点についてお話しします。 そもそも、TPUとは TPU(Tensor Processing Unit)とは、Googleが開発した機械学習特化型のプロセッサのことで、基本的にGPUよりも高速で学習を進めることができます。計算量が多く、バッチサイズが大きい場合に特にその効果を発揮します。 私たちがこのパワ

                                        Google ColaboratoryのTPUランタイムを使ってKeras Tunerでパラメタ探索
                                      • コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に

                                        Googleのクラウドコンピューティングサービス「Google Cloud」において、機械学習特化型プロセッサ「TPU v5e」を用いた処理が可能になりました。GoogleはTPU v5eについて前世代の「TPU v4」と比較してコストパフォーマンスが2.3倍に向上しているとアピールしています。 Cloud TPU v5e is generally available | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-in-ga/?hl=en TPU v5eはGoogleが独自に開発している機械学習特化プロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルで、発表時には前世代モデルのTPU v4と比較して1ドル当たりのパフォーマ

                                          コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に
                                        • GoogleがAI特化プロセッサTPUの第5世代モデル「TPU v5e」を発表、前モデル比で1ドル当たりのトレーニングパフォーマンス最大2倍・推論パフォーマンス最大2.5倍

                                          2023年8月30日、Googleが独自に開発する機械学習特化のプロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルとなる「TPU v5e」を発表しました。Googleは大規模言語モデル(LLM)や生成AI(ジェネレーティブAI)といった人気のAIを構築するための「コスト効率とパフォーマンスに優れたプロセッサ」としてTPU v5eをアピールしています。 Announcing Cloud TPU v5e and A3 GPUs in GA | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-and-a3-gpus-in-ga/ Inside a Google Cloud TPU Data Center - YouTube Goog

                                            GoogleがAI特化プロセッサTPUの第5世代モデル「TPU v5e」を発表、前モデル比で1ドル当たりのトレーニングパフォーマンス最大2倍・推論パフォーマンス最大2.5倍
                                          • GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張

                                            Googleは2021年、機械学習に特化したプロセッサ「Tensor Processing Unit(TPU)」の第4世代モデルである「TPU v4」を発表しました。新たにGoogleが、2023年4月に公開した公式ブログとプレプリントサーバーのArXivに投稿した論文で、「GoogleのTPU v4を組み合わせたシステムは同サイズのNVIDA『A100』を用いたシステムより高速かつ効率的」と主張しています。 [2304.01433] TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings https://arxiv.org/abs/2304.01433 TPU v4 enables performance, energy and

                                              GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張
                                            • Introducing Gemma 3: The most capable model you can run on a single GPU or TPU

                                              The Gemma family of open models is foundational to our commitment to making useful AI technology accessible. Last month, we celebrated Gemma's first birthday, a milestone marked by incredible adoption — over 100 million downloads — and a vibrant community that has created more than 60,000 Gemma variants. This Gemmaverse continues to inspire us. Today, we're introducing Gemma 3, a collection of lig

                                                Introducing Gemma 3: The most capable model you can run on a single GPU or TPU
                                              • “グーグルシリコン“搭載のPixel 6はiPhoneに勝てそう? Samsung + TPUでハイエンド復帰か

                                                4月は秋の新製品のうわさが増える月。今日も9TO5Googleが「Pixel 6(仮)はオリジナルSoC搭載」という記事を。今回の連載「Googleさん」はこのSoCのお話です。 AppleのiPhoneは4代目の「iPhone 4」の「A4」から“アップルシリコン”と呼ばれるオリジナルSoCを搭載してますが、Googleのオリジナルスマートフォン「Pixel」シリーズのSoCはずっとQualcommのSnapdragonシリーズでした。今秋登場予定のPixel 6(仮)も、てっきりQualcommが昨年12月に発表したハイエンドの「Snapdragon 888」を使うとばかり思っていたのですが。 GoogleがオリジナルSoCを開発しているといううわさは昨年4月ごろからありました。コードネーム「Whitechapel」の下、Samsungと共同で設計しているという話です。 余談ですが、W

                                                  “グーグルシリコン“搭載のPixel 6はiPhoneに勝てそう? Samsung + TPUでハイエンド復帰か
                                                • TPUとKaggle

                                                  はじめに この記事は、Kaggle Advent Calendar 2021の13日目の記事です。 昨日はtattakaさんによる鳥コンペ三部作を振り返る、でした。明日はymd_さんによる時系列のCross Validationについて、です。 この記事では、最近Kaggleでもよく用いられるようになってきたTPUについてまとめていこうと思います。 想定読者は TPUをまだ使ったことがない人 Kaggleをやってみたいが、安く使える計算リソースがなく困っている人 です。 TPUとは TPUに関する一般的な話はGoogleのTPU紹介を視聴した方が良いので、少し触れるのみにします。 TPUはGoogleが開発した、行列計算に特化した計算デバイスです。機械学習、その中でも特にDeep Learningは行列計算が数多く登場しますが、従来はこれをCPUやGPUなどの汎用性の高い計算デバイスで行っ

                                                    TPUとKaggle
                                                  • GoogleがAI向けチップ「TPU v5p」を発表、前世代から最大2.8倍の性能向上で「Gemini」のトレーニングにも使用される

                                                    現地時間2023年12月6日に、Googleが独自開発を進める機械学習特化のプロセッサ「Tensor Processing Unit(TPU)」の新モデル「TPU v5p」が発表されました。GoogleはこのTPU v5pについて「TPU v5pと同時に発表されたマルチモーダルAIのGeminiのトレーニングにも使用されています」と述べています。 Introducing Cloud TPU v5p and AI Hypercomputer | Google Cloud Blog https://cloud.google.com/blog/products/ai-machine-learning/introducing-cloud-tpu-v5p-and-ai-hypercomputer Introducing AI Hypercomputer with Cloud TPU v5p - Yo

                                                      GoogleがAI向けチップ「TPU v5p」を発表、前世代から最大2.8倍の性能向上で「Gemini」のトレーニングにも使用される
                                                    • Google、第6世代のAI専用TPU「Trillium」発表。前世代より約5倍の性能向上、2倍のメモリ容量と帯域など

                                                      Googleは、日本時間5月15日から開催中のイベント「Google I/O 2024」で、TPU v5eに続く第6世代のAI専用TPU(Tensor Processing Unit)である「Trillium」を発表しました。 Trilliumは前世代のTPUとなるTPU v5eと比較して、チップあたりのピーク演算性能が4.7倍。高帯域幅メモリー(HBM:High Bandwidth Memory)の容量と帯域幅が2倍になり、チップ間相互接続(ICI: Interchip Interconnect)の帯域幅もTPU v5eに比べて2倍になりました。 さらに、Trillium TPUは、TPU v5eよりも67%以上エネルギー効率が向上しているとのこと。 Trilliumは、単一の高帯域幅、低レイテンシを備えたポッドで最大256 TPUまで拡張でき、さらに並列処理などを実現するマルチスライス

                                                        Google、第6世代のAI専用TPU「Trillium」発表。前世代より約5倍の性能向上、2倍のメモリ容量と帯域など
                                                      • [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23

                                                        [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23 Googleは、8月29日(日本時間の30日未明)から米サンフランシスコで開催中のイベント「Google Cloud Next '23」で、同社が独自に開発する機械学習に特化したプロセッサの新型「Cloud TPU v5e」を発表しました。

                                                          [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23
                                                        • 【AIメモ】GoogleのTPUがすごい

                                                          Google TPU がすごい。 TPU ってなに? TPU は、Google が開発した機械学習のプロセッサです。 【補足】TPU は Tensor Processing Unit の略です CPU や GPU と同じ流れです。 CPU:Central Processing Unit GPU:Graphics Processing Unit TPU:Tensor Processing Unit TPU を使うと、ディープラーニングを高速化できます。Google 自身も Google Photos などで TPU を使っています。私たちも GCP(Google Cloud Platform)から、TPU を使った機械学習をすることができます。 今回は、機械学習ユーザー必見の TPU について簡単に紹介します。イメージをざっくり紹介するので、実際の動きとは多少異なる点があります。ご了承くださ

                                                            【AIメモ】GoogleのTPUがすごい
                                                          • Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24

                                                            Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24 Google Cloudは、日本時間4月10日未明から開催中のイベント「Google Cloud Next '24」で、同社が独自に開発しているAI処理に特化したプロセッサ「Cloud TPU」の最新版となる「Cloud TPU v5p」を発表しました。

                                                              Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24
                                                            • 機械学習に特化した第4世代プロセッサ「TPU v4」をGoogleが発表、前世代の2倍以上のパフォーマンスに

                                                              Googleが開発する機械学習に特化した専用プロセッサ「Tensor Processing Unit(TPU)」の第4世代モデル「TPU v4」が、2021年5月18日の開発者カンファレンス「Google I/O 2021」で発表されました。新たなプロセッサはすでにGoogleのデータセンターに導入されており、2021年後半にはGoogleクラウドのユーザーが利用可能になるとのことです。 Google unveils 4th generation Tensor Processing Unit - 9to5Google https://9to5google.com/2021/05/18/google-unveils-4th-generation-tensor-processing-unit/ Google details new AI accelerator chips | VentureB

                                                                機械学習に特化した第4世代プロセッサ「TPU v4」をGoogleが発表、前世代の2倍以上のパフォーマンスに
                                                              • GitHub - salesforce/CodeGen: CodeGen is a family of open-source model for program synthesis. Trained on TPU-v4. Competitive with OpenAI Codex.

                                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                  GitHub - salesforce/CodeGen: CodeGen is a family of open-source model for program synthesis. Trained on TPU-v4. Competitive with OpenAI Codex.
                                                                • Google、次世代TPU「Ironwood」の詳細を公開:4.6 PFLOPSを支えるシステムアーキテクチャの全貌とは | XenoSpectrum

                                                                  注目すべきは、単一チップの演算性能がTPU v4からわずか数年で16.7倍に達している点だ。この4,614 TFLOPS (4.6 PFLOPS) という数値は、BF16(BFloat16)やINT8といった低精度データフォーマットにおけるピーク性能であると推察される。現代のAIモデル、特に推論においては、性能と精度のバランスが取れたこれらのフォーマットが主流であり、この数値は実用性能に直結する。 (Credit: Google) しかし、現代のAIアクセラレータにおいてFLOPSは物語の一部に過ぎない。より重要なのは、その演算器にデータを供給し続けるメモリサブシステムだ。Ironwoodは192GBという大容量HBMメモリを搭載し、その帯域幅は7.4 TB/sに達する。これは、数百億から数兆パラメータにも及ぶ巨大なLLMの重みをチップ内に保持し、メモリアクセスがボトルネックになることを防

                                                                    Google、次世代TPU「Ironwood」の詳細を公開:4.6 PFLOPSを支えるシステムアーキテクチャの全貌とは | XenoSpectrum
                                                                  • Google、クラウド上でのプライバシー保護型AI処理技術「Private AI Compute」の技術資料を公開 — TPU上で動作、クラウド上のプライベート領域でGeminiを実行

                                                                      Google、クラウド上でのプライバシー保護型AI処理技術「Private AI Compute」の技術資料を公開 — TPU上で動作、クラウド上のプライベート領域でGeminiを実行
                                                                    • Google CloudとAnthropicが提携拡大 AnthropicはTPUを最大100万個利用へ

                                                                      米Google Cloudと米Anthropicは10月23日(現地時間)、大規模なパートナーシップの拡大を発表した。これにより、AnthropicはGoogle CloudのTPU(Tensor Processing Units)チップの利用を大幅に拡大し、最大で100万個のTPUチップにアクセスできるようになる見込み。 この取引は数十億ドル規模のもので、Anthropicは2026年に1GWを遥かに超える容量を利用開始する計画だ。両社は2023年に戦略的パートナーシップを締結しており、AnthropicはGoogle CloudのAIインフラストラクチャを活用してモデルのトレーニングを行い、ClaudeモデルをVertex AIプラットフォームやGoogle Cloud Marketplaceを通じて企業に提供している。 Anthropicにとって、この拡大はClaudeモデルの次世代

                                                                        Google CloudとAnthropicが提携拡大 AnthropicはTPUを最大100万個利用へ
                                                                      • 電気を利用せずにスイッチングできるGoogle TPU v4 AIプロセッサーの昨今 (1/3)

                                                                        またしばらく間が空いてしまったがAIプロセッサーの話をしよう。今回はGoogle TPU v4である。Google TPUそのものはこのAIプロセッサシリーズの最初の回で説明した。この時にはGoogle TPU v1~v3までに触れたが、2021年のGoogle I/O 2021で後継となるGoogle TPU v4が発表された。この発表の概略は動画の2分11秒あたりから一瞬だけ紹介されている。 そのGoogle TPU v4は2021年後半から一般にも供用が開始されている。供用、というのはGoogle Cloud TPUサービスという形での提供と言う意味で、チップ自身の販売はなされていない。 そのGoogle TPU v4、発表時にも概略の説明はあったのだが、今年の4月にGoogle自身がそのGoogle TPU v4の詳細を公開した。こちらは論文も出ており、今年6月に開催されたISCA

                                                                          電気を利用せずにスイッチングできるGoogle TPU v4 AIプロセッサーの昨今 (1/3)
                                                                        • [速報]Google Cloud、第7世代となるAI処理向けTPU 「Ironwood」発表。推論に特化し、前世代から性能を最大10倍に

                                                                          Google Cloudは、日本時間で今日(2025年4月10日)未明に開幕した「Google Cloud Next 2025」において、AI処理向けのTPU(Tensor Processing Unit)として第7世代となる「Ironwood」を発表しました。 Ironwoodは同社初の推論に特化したTPUです。液冷システムにより1Pod当たり最大で9216個のチップが双方向1.2TBの高速なチップ間接続で接続され、1チップあたり192GBの高帯域幅メモリを搭載するなどのス……

                                                                            [速報]Google Cloud、第7世代となるAI処理向けTPU 「Ironwood」発表。推論に特化し、前世代から性能を最大10倍に
                                                                          • Edge TPU の July 2021 Updates を追う - OPTiM TECH BLOG

                                                                            こんにちは、R&D チームの奥村(@izariuo440)です。 前回の Edge TPU の記事から1年4ヶ月ほど空いてしまいました。その間、Windows 向けの PCIe ドライバのβ版が公開されたり Edge TPU ランタイムが OSS になったり、Python/C++ 向けの API が整理されたり MobileDet が利用可能になったりしました。今回の更新では、コンパイラや修正ツールの更新でより多くのモデルがコンパイルできるようになったり、物体検出の EfficientDet-Lite や単一人物姿勢推定の MoveNet などのモデルが追加されたりしています。この記事では July 2021 Updates | Coral をベースに、意訳・追記をしています。 Edge TPU に関しては、過去記事も参考になるかもしれません。 2019インターン紹介: Edge TPU向

                                                                              Edge TPU の July 2021 Updates を追う - OPTiM TECH BLOG
                                                                            • GoogleのAI処理チップ「Trillium」がGoogle Cloud経由で利用可能に、旧世代TPUと比べて4倍の学習性能を発揮

                                                                              2024年5月に発表されたGoogleの第6世代TPU「Trillium(v6e)」が、Google Cloudのユーザー向けに一般提供されたことがわかりました。Trilliumは以前のモデルと比べてパフォーマンスが4倍、エネルギー効率が67%向上しています。 Trillium TPU is GA | Google Cloud Blog https://cloud.google.com/blog/products/compute/trillium-tpu-is-ga?hl=en TPU v6e  |  Google Cloud https://cloud.google.com/tpu/docs/v6e Trilliumは5月のGoogle I/O 2024で発表された第6世代TPUで、前世代のTPU v5eと比較してチップ当たりのピークパフォーマンスが4.7倍に、高帯域幅メモリ(HBM)の

                                                                                GoogleのAI処理チップ「Trillium」がGoogle Cloud経由で利用可能に、旧世代TPUと比べて4倍の学習性能を発揮
                                                                              • GoogleとAnthropicがクラウドパートナーシップを正式発表、100万台以上のTPUの利用拡大でコンピューティング能力増大

                                                                                先日のうわさの通り、GoogleとAnthropicがクラウド分野でのパートナーシップ締結を正式に発表しました。これによりAnthropicは100万台以上のTPUを含むGoogle Cloudの使用を拡大し、コンピューティングリソースを劇的に増加させることになるとのこと。2026年には1GWをはるかに超える能力が提供される見込みとなっています。 Expanding our use of Google Cloud TPUs and Services \ Anthropic https://www.anthropic.com/news/expanding-our-use-of-google-cloud-tpus-and-services Google, Anthropic seal gigawatt-scale TPU deal • The Register https://www.ther

                                                                                  GoogleとAnthropicがクラウドパートナーシップを正式発表、100万台以上のTPUの利用拡大でコンピューティング能力増大
                                                                                • Anthropic、Google Cloudと提携拡大 100万個のTPU導入など

                                                                                    Anthropic、Google Cloudと提携拡大 100万個のTPU導入など

                                                                                  新着記事