はじめに
こんにちは。DMM.comデータサイエンスグループの土屋です。本記事では4/9〜4/11にラスベガスで行われたGoogle Cloud Next 2025への参加記録を共有します。
Google Cloud Nextとは
Google Cloud Next( https://cloud.withgoogle.com/next/25 )とは、Google Cloudの最新のイノベーションや顧客事例を紹介するイベントです。クラウドコンピューティング、AI、機械学習、データ分析、セキュリティなど多岐にわたる分野の専門家や開発者が集い、最新の技術動向や活用事例を共有します。現地ではKeynote、ブレイクアウトセッション、デモ、ハンズオンなどが行われ、参加者はGoogle Cloudの最新情報をキャッチアップできます。2025年はアメリカのラスベガスで開催され、データサイエンスグループから土屋と西潟の2名が参加しました。
会場の様子
ラスベガスの様子
去年と同様、ラスベガスでの開催となりました。4月のラスベガスは30℃近くまで気温が上がりますが、湿気が少なく過ごしやすい環境で、会場周辺には巨大なホテルやカジノが立ち並ぶ独特な雰囲気でのイベント開催となりました。
Keynoteの様子
Keynoteは会場内のMichelob ULTRA Arenaで開催され、ライブ会場のような盛り上がりを見せました。
初日のKeynoteでは、Gemini2.5のアップデートと、それぞれ画像、音声、音楽、動画に特化した生成モデルが発表されました。また、モデルやエージェントの開発、それに利用されるTPU、GPUの最新ハードモデルの発表と盛りだくさんの内容となりました。
4/10のKeynoteでは、Geminiやエージェントを活用した開発環境の最新アップデートとデモンストレーションが行われました。
EXPOの様子
会場内にはEXPOが設置され、Google Cloudの様々なプロダクトやソリューション、パートナー企業のブースが立ち並び、多くの参加者で賑わいました。担当者に直接話を聞くことができ、具体的な質問や導入に関する相談も行うことができました。
日本人向けセッションの様子
今年も日本人向けのセッションが開催され、Google Cloud Japanの方々によるセッションサマリが発表されました。セッションは日本語で行われるため、より技術的な内容も深く理解でき、その後の参加者同士の交流会では他日本企業のエンジニアや技術担当者と情報交換する良い機会となりました。
気になったセッション
土屋パート
私はデータサイエンスグループでレコメンドの実装、機能改善を担当しています。私からはカンファレンス内で気になったレコメンド関連のセッションを2つご紹介できたらと思います。
Solve real-time AI challenges: Bigtable and BigQuery in Spotify’s music recommendation engine
本セッションではSpotifyの音楽リアルタイムレコメンドについて、BigtableやBigQueryなどのGoogle Cloudアーキテクチャに触れて紹介されています。弊社でもGoogle Cloudを用いたリアルタイムレコメンドを活用しており、弊社よりもGoogle Cloud活用の歴史が長いSpotifyの取り組みに興味がありました。本セッションでは、レコメンドを「データの新鮮さ」「モデルアーキテクチャの複雑さ」「レスポンス速度」という3つの指標によるトレードオフの観点から、5つのレベルに分けてGoogle Cloudアーキテクチャの紹介がされていました。
level 1: バッチ推論
日次や週次など一定間隔であらかじめ生成しておいたレコメンドを呼び出す方法になります。特徴量の保存にBigQueryを利用しており、モデルアーキテクチャの複雑さ、レスポンス速度に優れるものの、データの新鮮さに欠けます。
level 2: リアルタイム推論
特徴量のみ BigQuery から Bigtable に移し、推論 API を叩かれたユーザーだけ推論する方式になります。
level 3: リアルタイム推論 + リアルタイム特徴量の追加
上記level2の構成に加え、推論時に時間やデバイス情報などのリアルタイム特徴量を追加することでさらにデータの新鮮さを追加した方法になります。一方でバッチ特徴量とリアルタイム特徴量の時間軸が学習と推論で異なるため、性能に差が生じる問題(train-serve skew)の原因になっています。
level 4: train-serve skewの回避
BigQueryを介さず、全特徴量を Bigtable に保存し、推論時に使った特徴量を GCS に保存します。GCSに保存したログを利用してモデルを学習することで学習時と推論時の時間的な乖離をなくし、train-serve skewを回避する方式になります。level 3の問題点を解決できる一方で学習よりも推論を先に行う必要があるため、導入したばかりのモデルではうまく推論ができません。
level 5: ニアリアルタイム推論
ユーザの行動を一定間隔で処理した特徴量(例: 直近30分にユーザが聞いた楽曲)を学習に反映させた手法になります。一定間隔の処理にはPub/Subが利用され、最終的にBigtableへとこれらの特徴量が格納されます。ニアリアルタイムと呼ばれるのは一定間隔で処理される特徴量と推論時のタイミングが異なるからです。
Spotifyでは、level 1〜5 のレコメンドを要件とトレードオフとを照らし合わせたうえで最適なレコメンドを選択しているとの紹介がありました。例えば「Top Genre Daily」というプレイリスト機能(ユーザーごとに20曲レコメンドする機能)ではすべてのユーザーインタラクションがリアルタイムで処理されているわけではなく、Level4 から Level5 へ移行されているような発言がありました。また、ユーザごとのベースとなる埋め込みエンべディングの作成にはlevel 1とlevel 5を合わせたようなアーキテクチャを採用しているそうです。これは新規ユーザなどのコールドスタート問題の解決に寄与します。
最近リリースした弊社のニアリアルタイムレコメンドでは、運用体制の省力化やサービスの特性を踏まえ、ユーザーインタラクションは GA4 → BigQuery の自動連携に任せています。その後、継続的クエリを利用して、BigtableとPub/Subにデータを流し込む設計を採用しています。この方式では、ユーザー行動から即座に画面反映するリアルタイム性は難しいものの、GA4 → BigQuery のデータ連携はほぼリアルタイムに近く、動画などの比較的長尺コンテンツを扱う弊社サービスにおいては十分なリアルタイム性を実現できてると考えています。詳細については下記の記事で詳しく説明しているため、よろしければこちらもご覧ください。
弊社ではtoCコンテンツを多く扱うため、ユーザのその時の気分をいちはやくレコメンドに反映できるリアルタイムレコメンドは必須と考えています。直近では上記紹介したlevel 5相当のニアリアルタイム推論を実装しています。データや設計思想の違いから本セッションで紹介のあったレベルと直接比較できませんが、段階別のリアルタイム化手法とトレードオフの考え方はとても参考になりました。今後もspotifyの動向に注視したいと思います。
Scaling multimodal hybrid search for massive datasets
本セッションではVertex AI Searchの紹介とデモがされており、検索に関連したセッションですが、レコメンドとの共通項も多く興味深かったため、こちらで紹介させていただきます。
セッションによると、Vertex AI Searchは、大規模データセットに対するマルチモーダルなハイブリッド検索を可能にするサービスだと紹介されていました。従来のキーワード検索に加え、AIモデルによって生成された埋め込みベクトルを用いることで、テキスト、画像、音声、動画など、多様なデータから意味的な類似性を捉え、高度な検索を可能にします。
Vertex AI Searchではベクトル検索を提供しており、下記のような特徴があります。
- Multimodal search: 画像、音声、動画などのマルチモーダルなデータからの検索
- Hybrid search: セマンティックサーチ(意味的な検索)とキーワードサーチ(従来のようなキーワードを利用した検索)の両方を活用
- Task type embedding: 質問→回答などの与えられたタスクを踏まえたエンべディングの作成
弊社のレコメンドシステムでは、two-towerモデルを用いてエンべディングを作成し、近傍探索によってレコメンドを生成しています。エンべディングの作成においては、キーワードや商品名といったメタ情報を活用することで、レコメンド精度の向上を図っています。しかしながら、特に動画や電子書籍などのtoCサービスでは嗜好が似ているユーザ間でも分野や作品に対する好み、思想的背景などが大きく影響し、それらを考慮しないレコメンドはユーザ体験を著しく損なう可能性があります。上記の理由により、背景情報が重要視されるtoCレコメンドとVertex AI Searchで用いられるHybrid Searchとの相性がいいように感じました。特に、Hybrid searchについて、背景情報が複雑なレコメンドシステムへの活用により、精度の高いレコメンド候補の検索が可能になるのではないかと感じました。
本セッション内では触れられていませんでしたが、Vertex AI Searchのレコメンド活用についても様々なユースケースに対応したドキュメントが用意されています。導入の容易性がドキュメントにも表れていることは、これからも Google Cloud を利用していく積極的な理由になると感じました。
本セッションを通して、Vertex AI Searchに触れ、ベクトル技術の進歩を感じました。これから、検索技術についても継続してアップデートを重ね、ユーザ体験の向上に努めます。
西潟パート
データサイエンスグループで検索・レコメンドのプロダクトマネージャーを担当している西潟です。私からは、カンファレンスで得た検索技術に関する最新動向や所感についてお伝えします。
今回で2回目の参加となった本カンファレンスですが、昨年に引き続き、検索関連のセッションが数多く設けられていました。事前登録で早々に満席となるセッションも見られ、検索技術に対する関心の高さをあらためて感じました。
カンファレンスの中心テーマは昨年と同様にAIであった一方で、その活用方法には変化が見られました。昨年は RAG を単体で活用する事例報告が多くされていた印象でした。今年は RAG を検索アーキテクチャの一部として捉え、Lexical Search、Vector Search、ReRanker といった技術とシームレスに組み合わせるアプローチが多く紹介されていた印象です。
変化するユーザーの検索行動
以下のセッションタイトルにも見られるように、ユーザーの検索クエリの傾向が変化している点も、複数のセッションで指摘されていました。
- Search that sells: AI search and conversation for commerce
- How to build an AI-powered search engine for personalized content discovery with a lean team
具体的には、ユーザーが固有名詞や絞り込み条件を指定して検索するケースは以前より減少し、より曖昧で、意図や目的を含むような検索が増えているとのことです。例えば Google ショッピングでは、「結婚式に何を着ていくべきか」「屋根の作り方は?」といった、インスピレーションや質問(Inspiration / Question)に分類されるクエリが増加傾向にあり、前年比で約2倍の需要があったという報告もありました。
具体的な商品を検索する場合でも、その傾向は変化しています。従来であれば複数の検索クエリに分けていたような検索が、一つの長いクエリで完結するケースが多く見られるとのことでした。例えば、「坂道が多い道を5マイル走るための赤色の電動バイクを探して」のようなクエリです。このクエリには「おすすめの電動バイク」「5マイル走行可能」「坂道向け」「赤色」といった複数の意図が含まれており、ユーザーはこれらを単一の複雑なクエリで表現し、システムには最適にパーソナライズされた検索結果を期待しています。
Newsweek の事例でも同様の傾向が報告されており、「トランプ氏はフロリダで何をしている?」のような、ハイコンテクストなクエリが増加しているとのことでした。従来であれば「トランプ 政治活動 フロリダ」や「トランプ フロリダ 自宅」のように、キーワードを分解して入力する必要がありましたが、ユーザーはより自然言語に近い、曖昧で時事的な問いかけをするようになっています。こうしたクエリは、従来の Lexical Search ベースの検索エンジンでは、ユーザーの意図を正確に汲み取ることが難しくなっています。
このようなユーザー意図の解釈が難しいクエリに対応するため、入力されたクエリの特性に応じて、Lexical Search、Vector Search、あるいは LLM に処理を振り分けるアーキテクチャが、多くのセッションで紹介されていました。
Vector Search の重要性と Vertex AI Vector Search
検索においてはレイテンシが非常に重要です。そのため、LLM を全ての検索に用いるケースは、現状ではまだ用途が限定的であるという印象を受けました。一方で、曖昧なクエリに対しても高速に類似性検索を行える Vector Search の需要はますます高まっていると感じられ、その重要性や活用事例に関する報告も多数ありました。
特に以下のセッションで紹介されていたように、Google Cloud の Vertex AI Vector Search は注目を集めていました。Vertex AI Vector Search では、Googleが事前学習した汎用的な Embedding モデルを利用できるため、テキスト検索だけでなく、画像検索やマルチモーダル検索においても高い性能を発揮できるという主張が、様々な場面で聞かれました。
- Solve real-time AI challenges: Bigtable and BigQuery in Spotify’s music recommendation engine
- Scaling multimodal hybrid search for massive datasets
Elasticsearch と Vertex AI Vector Search
カンファレンスの展示ブースには多くのパートナー企業が出展していました。DMM でも導入している Elasticsearch のブースもあったため、ブースに立ち寄り、あえて Vertex AI Vector Search について話を伺ってみました。
前述のセッションを含め、多くのセッションで Vertex AI Vector Search の有用性が語られていたため、特に検索結果の Relevancy に関して、Elasticsearch との比較ベンチマークなどがないか尋ねてみました。しかし、「Google は良好なパートナー企業であり、直接的な競合製品という位置づけではなく、Relevancy のベンチマークは存在しない」との回答でした。
その上で、Vertex AI Vector Search については、現時点での懸念点として、ランキングロジックの詳細なチューニングや、日本語における Lexical Search の細かな調整は難しい可能性がある点を挙げていただきました。また、Vertex AI Vector Search の運用コストが比較的高額になる点も、導入の障壁となるかもとのコメントもいただきました。
同様の特性を持つと思われる Elasticsearch の Serverless 版ですが、運用の人的コストは少なくなる分、金額はもっとも高くなる傾向があります。そのため、自社で検索結果の品質を細かくチューニングし、コストを最適化しながら運用したい場合は Elasticsearch がベストな選択であるとあらためて感じました。
今回のGoogle Cloud Nextでのメインストリームについて
今回のGoogle Cloud Nextの中心となったのはGeminiとAIエージェントでした。基調講演や多くのセッションでGeminiをはじめとする最新生成AIモデルやそれに伴うエコシステムに注目が集まり、様々な産業やユースケースにおいて革新的な変化をもたらす可能性が繰り返し強調されていました。AIを活用したエージェント開発環境、AIインフラストラクチャの進化も目覚ましく、より高性能で効率的なAIモデルの学習・推論環境が提供されることで、これまで以上に高精度なAIモデルがより身近に利用できるようになるのを感じました。
レコメンド、検索の文脈では画像、音声を利用したマルチモーダルなインプットと自然言語を利用したインタラクティブな検索・レコメンドのUXが多くのセッションやデモを通して強調されていた印象があります。今まで検索とレコメンドで切り離されていたものがLLMを通してシームレスにユーザに提供される光景は新しいUXの形を感じました。
おわりに
今回のGoogle Cloud Next 2025への参加を通して、生成AIモデル、AIエージェントの急速な進化とその応用範囲の広がりを肌で感じることができました。DMMのデータサイエンスグループとしても、これらの技術を積極的に取り入れ、ユーザー体験の向上に繋げていきたいと考えています。得られた知見を社内で共有し、今後の具体的なアクションプランに落とし込んでいきたいと思います。
また、弊社他の部署より参加した若手メンバー2名による現地レポートも上がっていますのでぜひチェックしてみてください。 developersblog.dmm.com
最後に、DMM データサイエンスグループでは一緒に働いてくれる仲間を募集しています!ご興味のある方は、ぜひ下記の募集ページをご確認ください!