28 結果
2025年5月9日 / DeepMind
Gemini 2.5 は動画理解における大きな飛躍です。主要な動画理解ベンチマークで最高水準のパフォーマンスを達成しており、コードやその他のデータ形式で視聴覚情報をシームレスに使用することができます。
2025年5月6日 / Gemini
An updated I/O edition preview of Gemini 2.5 Pro is being released for developers, featuring best-in-class front-end and UI development performance, ranking #1 on the WebDev Arena leaderboard, and showcasing applications like video to code and easier feature development through starter apps.
2025年4月18日 / Gemma
量子化対応トレーニング(QAT)で最適化した Gemma 3 モデルの int4 量子化バージョンがリリースされました。メモリ要件が大幅に削減され、ユーザーは Gemma 3 27B などの強力なモデルを NVIDIA RTX 3090 などのコンシューマグレード GPU で実行できるようになります。
2025年4月17日 / Gemini
Gemini 2.5 Flash がプレビュー版になりました。「思考」プロセスによって推論機能が向上しており、デベロッパーは費用とレイテンシのトレードオフを制御できます。このアップデート版の目的は、パフォーマンスと価格のバランスをとりながら、複雑なタスクに対応できる費用対効果の高いソリューションを実現することです。
2025年4月15日 / Gemini
Gemini API と Google AI Studio から、一般提供版になった動画生成モデル Veo 2 を利用できます。テキストと画像のプロンプトから高品質の動画を生成できるので、コンテンツ作成やマーケティングの取り組みをレベルアップさせることができます。
2025年4月9日 / Cloud
Agent2Agent(A2A)プロトコルは、さまざまなベンダーやフレームワークの AI エージェントが連携し、エンタープライズ プラットフォーム間で協調動作や情報交換を行えるようにするオープン スタンダードです。シームレスな AI エージェントの相互運用性と、強力な未来の自動化を実現することを目的として設計されています。
2025年2月25日 / Gemini
本番環境向け Gemini API で Gemini 2.0 Flash-Lite が一般提供され、Google AI Studio とエンタープライズ ユーザー向けの Vertex AI から利用できるようになりました。2.0 Flash-Lite は、推論、マルチモーダル、数学問題、事実問題のベンチマークで 1.5 Flash よりも高いパフォーマンスを発揮します。また、128K トークンを超えるプロンプトの価格設定がシンプルになっているので、長いコンテキスト ウィンドウが必要なプロジェクトで、さらに費用対効果の高いソリューションを実現できます。
2025年2月19日 / Gemma
アップグレードされた視覚言語モデルである PaliGemma 2 mix が公開されました。さまざまなサイズの画像へのキャプション付け、OCR、物体検出などの機能を提供します。
2024年12月20日 / Gemma
AI Singapore や INSAIT のチームは、オープンソース言語モデルのファミリーである Gemma を活用し、コミュニティの独自のニーズに合わせた LLM を作成することで、AI の革新性と包括性を実証しています。
2024年12月11日 / Gemini
Gemini 2.0 Flash では、マルチモーダル出力やネイティブ ツールの利用といった機能が強化されています。デベロッパーの生産性を向上させるための新たなコーディング エージェントも導入され、Google AI Studio でテストできるようになっています。