51 結果
2025年8月21日 / Gemini
Gemini Code Assist のエージェント モードを VS Code(プレビュー版)と IntelliJ(安定版)で提供開始しました。詳細な計画を提案してユーザーがレビューし承認できるようにすることで、複雑なコーディング タスクを合理化します。このインテリジェントなコラボレーション アプローチは、インライン差分や永続的なチャット履歴などの機能で強化されており、デベロッパーの生産性と効率を向上させることを目的としています。
2025年8月13日 / Gemini
最新の Gemini CLI アップデートでは、VS Code 内での緊密な IDE 統合が提供され、インテリジェントでコンテキストに対応した提案やネイティブのエディタ内差分ビューが追加されました。これにより、デベロッパーは差分ビュー内で提案された変更を直接確認、修正でき、より効率的なワークフローを実現できます。
2025年8月12日 / Kaggle
Google TPU で JAX を使用し、GPT2 モデルをゼロから構築してトレーニングしましょう。これには、無料枠の Colab または Kaggle で利用できる完全な Python ノートブックを使用します。ハードウェア メッシュの定義、モデル パラメータと入力データのデータ並列処理のための分割、モデル トレーニング プロセスの最適化について学びましょう。
2025年7月16日 / Cloud
Marin プロジェクトは、開発プロセス全体をアクセス可能で再現可能なものにすることで、AI における「オープン」の定義をモデル自体にとどまらず科学的プロセス全体にまで拡張することを目指しています。この取り組みは JAX フレームワークとその Levanter ツールを活用しており、基盤モデルの詳細な精査、信頼性の確保、そのうえでの構築を可能にすることで、より透明性の高い AI 研究の未来を育みます。
2025年7月16日 / Gemini
エージェント開発キット(ADK)がアップデートされました。CLI がコスト効率のよい形で ADK フレームワークを深く理解できるようになるので、AI エージェントの作成プロセスがシンプルかつ高速になります。デベロッパーは、実用的なエージェントのアイデア出し、生成、テスト、改善を会話型プロンプトからすばやく実施でき、手間を減らして、生産的な「フロー」状態を保つことができます。
2025年7月10日 / Gemini
GenAI Processors は、Google DeepMind の新しいオープンソース Python ライブラリです。入力処理からモデル呼び出しと出力処理までのすべてのステップに一貫した「Processor」インターフェースを提供することで、シームレスなチェーンと同時実行を実現します。特にマルチモーダル入力を処理し、リアルタイムの応答性を必要とする AI アプリケーションの開発を簡素化します。
2025年6月26日 / Gemma
これまでの Gemma モデルの成功をもとに、Gemma 3n モデルが完全リリースを迎えました。前例のないパフォーマンスを発揮する先進的なオンデバイス マルチモーダル機能を、エッジデバイスで利用できるようになります。モバイルファースト アーキテクチャ、MatFormer テクノロジー、Per-Layer Embeddings、KV キャッシュ共有、新しい音声エンコーダと MobileNet-V5 ビジョン エンコーダなど、Gemma 3n のイノベーションをご覧ください。デベロッパーが今すぐ開発を始める方法も紹介します。
2025年6月24日 / Gemini
コーディング、推論、空間理解を含むマルチモーダル機能が強化された Gemini 2.5 Pro および Flash が、ロボティクスに変革を起こします。この 2 つのモデルは、安全性の向上とコミュニティ アプリケーションに重点を置いており、場面の意味の理解、ロボット制御コードの生成、Live API によるインタラクティブ アプリケーションの開発に役立てることができます。
2025年5月20日 / Gemma
最先端のオープンモデル Gemma 3n は、オンデバイスで高速に動作するマルチモーダル AI として設計されています。最適化されたパフォーマンス、独自の 2-in-1 モデルによる柔軟性、オーディオによるマルチモーダル理解の強化といった特徴を持ち、インタラクティブなリアルタイム アプリケーションや洗練されたオーディオ中心のエクスペリエンスを開発できるようになっています。
2025年5月20日 / AI Edge
LiteRT を改善し、モバイルデバイスの AI モデルのパフォーマンスと効率を向上させました。GPU や NPU を効果的に活用できるようになったことで、コードが大幅に削減されています。また、ハードウェア アクセラレータの選択がシンプルになるなど、オンデバイスのパフォーマンスが最適化されます。