検索

34 結果

フィルタをクリアする
  • 2025年8月15日 / Google AI Studio

    Imagen 4 Fast のリリースと Gemini API での Imagen 4 ファミリーの一般提供開始のお知らせ

    Google は、Gemini API と Google AI Studio での Imagen 4 の一般提供開始を発表しました。Imagen 4 は、テキスト レンダリングの大幅な改善を特徴とする、高度なテキスト画像変換モデルです。そしてこのたび、スピードと高速画像生成を重視して設計された新しい Imagen 4 Fast モデルが、Imagen 4 と Imagen 4 Ultra とともに利用可能になりました。Imagen 4 と Imagen 4 Ultra は、最大 2K の解像度の画像生成もサポートします。

    Imagen 4 Fast and the generally availability of the Imagen 4 family in the Gemini API
  • 2025年8月12日 / Kaggle

    JAX を使用して TPU で GPT2 モデルを無料でトレーニング

    Google TPU で JAX を使用し、GPT2 モデルをゼロから構築してトレーニングしましょう。これには、無料枠の Colab または Kaggle で利用できる完全な Python ノートブックを使用します。ハードウェア メッシュの定義、モデル パラメータと入力データのデータ並列処理のための分割、モデル トレーニング プロセスの最適化について学びましょう。

    Train a GPT2 model with JAX on TPU for free
  • 2025年7月17日 / Gemini

    Gemini API、Veo 3 でのビルドに対応開始

    Google の最新 AI 動画生成モデルである Veo 3 が、Gemini API と Google AI Studio を通じて有料プレビュー版で利用可能になりました。Google I/O 2025 で発表された Veo 3 は、会話や背景音、動物の鳴き声など、動画と同期した音声の生成にも対応しています。自然光の表現や物理的な動きを再現したリアルなビジュアルに加え、画面上の動きに同期した正確なリップシンクとサウンドも提供します。

    Build with Veo 3, now available in the Gemini API and Google AI Studio
  • 2025年7月16日 / Cloud

    スタンフォード大学の Marin 基盤モデル: JAX を使用して開発された初の完全オープンモデル

    Marin プロジェクトは、開発プロセス全体をアクセス可能で再現可能なものにすることで、AI における「オープン」の定義をモデル自体にとどまらず科学的プロセス全体にまで拡張することを目指しています。この取り組みは JAX フレームワークとその Levanter ツールを活用しており、基盤モデルの詳細な精査、信頼性の確保、そのうえでの構築を可能にすることで、より透明性の高い AI 研究の未来を育みます。

    Stanford Marin project in JAX
  • 2025年6月24日 / Gemini

    Gemini API と Google AI Studio で Imagen 4 を公開

    Google の高度なテキスト画像変換モデル Imagen 4 が、Gemini API と Google AI Studio で有料プレビュー版として公開されました。このモデルでは、画像内テキスト生成の品質が大幅に向上しています。Imagen 4 ファミリーには、汎用タスク向けの Imagen 4、細かいところまでプロンプトに従うことができる Imagen 4 Ultra があり、すべての生成される画像に目に見えない SynthID 透かしが含まれています。

    Imagen 4 is now available on Gemini API and Google AI Studio
  • 2025年6月24日 / Gemini

    ノートブックがパワーアップ: 新しい AI ファーストの Google Colab を全ユーザーに公開

    新しい AI ファーストの Google Colab は、会話型コーディングのための反復クエリ、自律型ワークフローを実現する次世代データ サイエンス エージェント、簡単なコード変換などの機能改善によって生産性を向上させます。先行ユーザーは、生産性が劇的に向上し、ML プロジェクトを加速したり、コードをより迅速にデバッグしたり、高品質な視覚表現を簡単に作成したりできるようになると報告しています。

    Supercharge your notebooks: The new AI-first Google Colab is now available to everyone
  • 2025年6月24日 / Kaggle

    KerasHub を使用して Hugging Face で簡単なエンドツーエンドの機械学習ワークフローを実現

    KerasHub を使用すると、さまざまな機械学習フレームワーク間でモデル アーキテクチャと重みを組み合わせることができ、Hugging Face Hub などのソース(PyTorch で作成されたものを含む)のチェックポイントを Keras モデルに読み込んで JAX、PyTorch、TensorFlow で利用できるようになります。この柔軟性により、選択したバックエンド フレームワークを完全に制御しながら、コミュニティによってファインチューニングされた幅広いモデルを活用できます。

    How to load model weights from SafeTensors into KerasHub for multi-framework machine learning
  • 2025年6月23日 / Kaggle

    多言語 LLM のイノベーション: オープンモデルでグローバル コミュニケーションを推進する

    デベロッパーが Gemma などの LLM を多様な言語や文化に対応させると、古代文字の翻訳、数学的理解のローカライズ、文化的感性を踏まえた歌詞翻訳など、多くの課題に対処できます。こういった取り組みを通して、AI でグローバル コミュニケーションのギャップを埋める可能性が実証されています。

    Multilingual innovation in LLMs: How open models help unlock global communication
  • 2025年6月17日 / Gemini

    Gemini 2.5: 思考モデル ファミリーのアップデート

    Google は Gemini 2.5 モデル ファミリーのアップデート版をリリースします。Gemini 2.5 Pro および Flash が安定版として一般提供され、新しい Gemini 2.5 Flash-Lite「思考モデル」がプレビュー版となります。パフォーマンスと精度が向上し、Flash-Lite により安価な選択肢が生まれます。

    Gemini 2.5: Updates to our family of thinking models
  • 2025年5月20日 / Android

    Google I/O 2025 デベロッパー基調講演の主なポイントを紹介

    Google I/O 2025 では、Google プラットフォームでの開発や Google DeepMind の AI モデルによるイノベーションを中心とした発表が行われました。特に注目すべき内容は、デベロッパーの生産性向上と、Gemini、Android、Firebase、ウェブを活用した AI エクスペリエンスを作成できる新しいツール、API、機能です。

    What you should know from the Google I/O 2025 Developer keynote