12月7日、Googleが生成AI(人工知能)モデル「Gemini」を発表しました。
Google の新しい AI モデル、Gemini を発表しました✨
Google Japan Blog より詳細をご確認いただけます↓https://t.co/RUY80sRdot#GeminiAI https://t.co/V0dFMGcEz1
— Google Japan (@googlejapan) December 7, 2023
https://twitter.com/googlejapan/status/1732569449117749346
Hands-on with Gemini: Interacting with multimodal AI(YouTube)※日本語字幕付
https://youtu.be/UIZAiXYceBI
Google全体の大規模な共同研究の成果であるGeminiはマルチモーダルとしてゼロから構築されました。
テキスト/画像/音声/動画/コードなど様々な情報を一般化してシームレスに理解し、操作し、組み合わせることが可能です。
データセンターからモバイルデバイスまであらゆる場所で効率的に動作するGeminiの最先端機能により、開発者や企業がAIを構築/拡張する方法が大幅に強化されます。
最初のバージョンとなるGemini 1.0は次の3サイズに最適化されています。
Gemini Ultra:非常に複雑なタスクに対応する高性能で最大のモデル
Gemini Pro:幅広いタスクに対応する最良のモデル
Gemini Nano:デバイス上のタスクに最も効率的なモデル
Gemini 1.0は、テキスト/画像/音声などを同時認識して理解できるようにトレーニングされています。そのためニュアンスを含んだ情報をより理解し、複雑なトピックに関する質問に答えることが可能です。特に数学や物理学の推論の説明に優れているということです。
すでにGoogleの対話型AI「Bard」(英語版のみ)にはGemini Pro、スマートフォンの「Google Pixel」にはGemini Nanoが導入されています。Gemini Ultra及びGemini Ultraで動作する「Bard Advanced」は近日公開予定となっています。
米グーグルが新AI基盤技術 音声・画像も学習【モーサテ】(2023年12月7日)(YouTube)
https://youtu.be/FhqyD_OjCZE
※画像とソース:
https://japan.googleblog.com/2023/12/gemini.html