👋

戦略思考に基づく検索レコメンド開発

に公開

こんにちは。半熟仮想株式会社の齋藤(@usait0)です。2024年1月より、DMMさんの検索レコメンドチームの皆様と連携させていただいており、主にDMM TVにおける推薦システム周りの改善に取り組んでいます。今回は、その中でも最近注力している『検索レコメンドモデルの開発を通じて効率的な事業貢献を達成するための戦略策定』について、ブログとしてご紹介させていただくことになりました。

また、近日中に関連する内容のセミナーの開催も予定しているので、本記事の内容にご興味をお持ちいただけましたら、ぜひこちらにもご参加いただき、より深い議論ができればと考えています。

はじめに

最近ありがたいことに、DMMさんを含む10社以上の企業と連携させていただいており、中でも、検索やレコメンドモデルの戦略策定・開発・評価に関する取り組みが多くを占めています。多くの現場に関わらせていただく中で、よく感じているのが、検索レコメンドモデルの開発や評価を通じて、事業貢献を達成および実感できている現場が少ないということです。

企業において、工数や計算リソースを投じてモデルの開発に取り組む以上、収益やユーザー・顧客満足度の向上といった形で事業貢献を達成し、それを検知・主張できなければ、チームの存在意義が問われます。「事業貢献ができていない」あるいは「貢献していても、それを適切に主張できていない」場合、他部署からは「技術的に難しそうなことはしているようだが、成果が見えない」と後ろ指を刺されかねません。最悪の場合、チームが解体される可能性すらあるでしょう(これは、近年増加しているAIや言語モデル関連の研究組織にも当てはまるでしょう)。また、一個人として企業内外で評価され、収入などを上げていきたいと考える場合も、自らの事業貢献を明確にし、それを主張できることが重要でしょう。

検索レコメンドモデルを扱う方々の多くは、これらの事業貢献の必要性に共感されると思います。その一方で、実際にモデル開発を通じて事業やユーザー体験への貢献を実感できている方は、どれほどいるでしょうか。現場のデータサイエンティストやエンジニアの方々との対話、あるいは巷のブログ記事などから滲み出るのは、事業貢献やユーザー体験の向上を達成することに関する四苦八苦や、収益やユーザー・顧客満足と必ずしも一致しない(測りやすいだけの)指標の良し悪しに一喜一憂してしまっているケースが多いという現状です。

戦略思考の重要性

齋藤の経験上、こうした悩みや問題のほとんどは、「モデル開発や評価における戦略思考の薄さ」に起因しています。 ここで「戦略思考」とは、検索レコメンドモデルの開発を通じて達成すべき具体的な事業貢献目標(KGI; Key Goal Indicator)を定め、その達成に向けた道筋を見立てた上で、それに整合するモデル評価や学習を行う考え方のことです。具体的には、以下の指摘に心当たりがある場合、戦略思考が十分とは言えず、事業貢献に至るまでの道筋が描けないまま前に進もうとしてしまっている可能性が高いと言えます。

  • 指摘1:検索レコメンドモデルの開発によって達成すべき最終的な事業貢献目標が具体的に定まっていない、またそれがチーム内で共有されていない

  • 指摘2:事業貢献目標を達成するにあたって解消すべきボトルネックが特定できていない

  • 指摘3:特定されたボトルネックに対して整合的なABテストやオフライン評価が実施されていない

  • 指摘4:ボトルネックの解消に即した施策立案やモデル学習が行われていない

これらの指摘に心当たりがある場合、検索レコメンドモデルの開発は雰囲気で行われてしまっており、事業貢献が達成できるか否かはほとんど運任せになってしまっていると言わざるを得えないでしょう。

指摘1:事業貢献目標が定義・共有されていない

肌感覚ではありますが、おおよそ半数程度の現場において、検索レコメンドの開発を通じて達成したい最終目標が具体的に定まっていないという状況が見受けられます。これはすなわち、「良い検索レコメンドとは何か」「自社サービスにおける検索レコメンドの役割は何か」「その開発を通じて何を、どこまで引き上げたいのか/引き上げるべきなのか」といった点が、何も定まっていないということです。「事業貢献」が定義されていないわけなので、それを達成することも、主張することもできるわけがありません。

たとえば、検索レコメンドの役割を「収益の最大化」と位置づけるのであれば、「検索レコメンドの改善によって、サービスの収益をいつまでにどこまで引き上げるべきか」といった具体的な目標が明示されている必要があります。この目標が曖昧なままでは、何をどこまで頑張るべきかが見えず、頑張りの質や量を一向に評価・実感できないでしょう。

ここで「検索レコメンドの改善によって収益を動かすのは不可能に近いのでは」と感じる方もいるかもしれません。そう感じる理由は、おそらく以下のいずれかです。

  • すでに適切な事業貢献戦略を立案し、それを正しく実行してきたにもかかわらず、それでも収益に有意な変化が見られなかった
  • 戦略が適切に立てられておらず(もしくは立てようとしたことがなく)、事業貢献に結びつく施策やモデルの学習が実施されていなかった

前者は、ある意味で素晴らしい状況と言えるでしょう。考え得る限り最善の策を尽くした上で事業貢献を達成できなかったのであれば、それはすなわち、検索レコメンドモデルの改善を通じて、これ以上の収益向上は望めない という情報が得られたということです。もし検索レコメンドの役割を「収益最大化」に設定していたのであれば、この結論は、これ以上そこに時間や労力を投資する必要がないことを示唆します。これは無駄な開発工数やコストを未然に防ぐという意味で、価値ある判断材料と言えるはずです。

一方で、後者の事業貢献のための開発が行われていなかったに該当する場合、検索レコメンドによる貢献が難しいと感じている理由が、「検索レコメンドによる事業貢献のポテンシャルがない」からなのか「そもそも貢献が定義されていなかったり、貢献に向けた道筋が十分に練られていなかった」からなのか、はたまた「道筋は描けていたけれども、それを実行できなかった」ことが問題なのかという判断すらついていない状態と言えます。こちらの状態に該当する場合は、本記事や今後開催予定のセミナーを通じて、検索レコメンドが果たすべき役割やそれを効率的に達成するための戦略策定についての経験・方法論を共有し合い、事業貢献を実現する検索レコメンドの精度を共に高めていけたらと考えています。

指摘2:ボトルネックが特定されていない

さて、次によく見られる問題は、事業貢献目標を達成するために「どこに大きな改善余地があるのか」、つまりボトルネックの特定という考え方が欠けているというものです。前述の通り、検索レコメンドの改善によって直接的に事業目標を達成するのは容易ではありません。したがって、まずは事業貢献目標を複数の重要指標(KPI; Key Performance Indicator)に分解し、その中でどの指標がボトルネックとなっているかを明らかにすることが重要です。ボトルネックを特定できれば、それを狙い撃ちする形で施策やモデル学習の改善を講じることで、効率的な事業貢献を図ることが可能になります。

たとえば、NetflixやYouTubeのような動画配信プラットフォームにおいて、検索レコメンドの役割を「サブスクリプション収益の最大化」と定めたとしましょう。このとき、「収益を最大化するためには、どのようなモデル改善を行えばよいか?」という問いに、いきなり答えを出すのは非常に困難です。だからこそまず重要なのは、サブスクリプション収益という事業目標を構成する重要な要素を洗い出すことです。

サービスの特性にもよりますが、一般的なサブスクリプション型サービスにおける収益は、たとえば以下の4つの要素に分解できます。

  • 新規無料体験ユーザーの獲得数
  • 無料ユーザーの有料プランへの転換率
  • 有料ユーザーの離脱率(= 継続月数)
  • (プランが複数ある場合)ユーザーあたりの月額課金単価

この分解はあくまで一例であり、自社サービスの特徴や事業戦略に応じて、適切な構造を主体的に導き出すことが重要です。たとえば、Netflixのようにサブスクリプション収益が主軸となるサービスでは、上記の分解がそのまま適用可能かもしれません。一方で、YouTubeのように広告収益の比重が大きいプラットフォームでは、こうした指標だけでは事業の構造を十分に捉えきれないかもしれません。DMM TVにおいても、この分解と類似していますが、実際にはビジネス構造等を反映した独自のKPI分解を意図的に用いています。本記事では、検索レコメンドの戦略策定において重要な思考回路と落とし穴を整理しますが、具体的な目標設定や分解については、各組織や個人が主体的に考え、定義すべきものなのです。

さて、先ほど提示した1〜4のKPIのうち、検索レコメンド機能には影響を受けない指標があります。それは「1. 新規無料体験ユーザーの獲得数」です。考えてみれば当然ですが、新規ユーザーはまだサービスを利用しておらず、検索レコメンドに触れる機会もありません。この指標は、マーケティング施策など、他部門の取り組みの成果を写す鏡であることがわかります。一方で、「2. 無料ユーザーの有料プラン転換率」「3. 有料ユーザーの離脱率」「4. ユーザーあたりの月額課金単価」は、検索レコメンドの影響があり得る指標です。たとえば、無料期間中のユーザーの新たな興味の発掘につながる作品を提示できれば、「2. 無料ユーザーの有料プラン転換率」が改善するかもしれません。また、検索レコメンドを通じ、有料ユーザーがサービスを不満なく利用し続けられる体験設計ができれば、「3. 有料ユーザーの離脱率」の低下につながるかもしれません。さらに、より高額なプランの利用を促す作品推薦が実現できれば、「4. 月額課金単価」の向上があり得るかもしれません。

ここで重要なのは、「どの指標をどれだけ改善することで事業貢献目標を達成する道筋を描いているか」によって、どのユーザーに対して、どのようなモデルを開発・適用すべきかが変化するという点です。これこそが、ボトルネックを特定すべきである主な理由です。仮に、どの指標がボトルネックなのかを把握せずに開発を進めてしまっている場合、非常によく見られるのが「全ユーザーのデータを一様に用いて推薦モデルを学習する」といったアプローチです。一見おかしな点は無いように思えるかもしれませんが、たとえば全ユーザーの大半を有料会員が占めている場合、この学習方法では無料ユーザーのデータが埋もれてしまい、「2. 無料ユーザーの有料プラン転換率」の改善は見込めないでしょう。偶然にも「3. 有料ユーザーの離脱率」がボトルネックであった場合には、こうした一様な学習でも効率的な事業貢献につながる可能性はあります。しかし、もしボトルネックが「2. 無料ユーザーの有料プラン転換率」であった場合、それを狙い撃ちするモデル学習を行わない限りは、ボトルネックの改善、ひいては事業貢献目標の達成は期待できません。かくして、(多くの場合気付かぬうちに)事業貢献は運任せになってしまうのです。

一方で、事前に「2. 無料ユーザーの有料プラン転換率」がボトルネックであると特定できていた場合はどうでしょう。この場合、「無料ユーザーのデータに大きな重みをかけたモデル学習」など、ターゲットに特化した開発を行うことができます。結果として、限られたリソースの中でも、より効率的な事業貢献を目指すことが可能になるのです。もちろん、このような戦略的な手順を踏んだとしても、必ず事業貢献が達成できるとは限りません。しかしながら、最終目標やその達成に向けた道筋を明確にすることで、少なくともその達成確率を上げることができますし、失敗したとしても自信を持って撤退判断を下すことができます。最終的には、明確な戦略を定めるか定めないかの判断も含めて各々の戦略なわけですが、少なくとも齋藤は戦略を立てない限り、どのようなモデル学習や評価を実施すべきか全く見当がつきませんので、実務において戦略思考であることは必須であると捉えています。

さて前章では、(肌感覚ながら)事業貢献目標を具体的に設定している現場と、そうでない現場がおおよそ半々であると述べました。一方で、その目標達成に向けたボトルネック(いわば、最大の改善余地が眠る指標)を特定できている現場は1割にも満たない印象があります。実際、多くの現場では、ユーザーセグメントの濃淡を意識せず、すべてのユーザーを一様に扱ってモデル学習や評価がされていますし、「事業貢献目標達成のため、どのセグメントのどの指標をどれほど改善すべきか」といった問いに即答できる方はまれです。

分量の都合や、各社の状況によって適切な手法が異なることから、本記事ではボトルネック特定の方法論については深入りしません。DMM TVを含む具体的な分析事例については、今後のブログ記事やセミナーにて詳細に議論していく予定です。それまでの間、本記事の内容に興味を持ち、共感いただいた方には、自主的に自社サービスにおけるボトルネックの特定にトライすることをおすすめします。例えば、上記のサブスクサービスにおける例では、

  • 「無料ユーザー数 vs 有料ユーザー数」の比率の推移
  • 「無料ユーザーの離脱率 vs 有料ユーザーの離脱率」の違い
  • 各種課金プランの登録数の推移・プランを変更したユーザーの特徴

などのデータ・分析をもとに、2〜4のKPIのうち、どこに最も大きな改善余地が眠っているかを推測し、モデルの学習や評価方法を見直すことで、事業貢献をより意識した検索レコメンドの開発への一歩を踏み出せるはずです。

指摘3:ボトルネックに整合した評価が運用されていない

ボトルネックの特定は、ABテストなどの評価設計にも大きな影響を与えます。たとえば、「2. 無料ユーザーの有料プラン転換率」にボトルネックがあることを突き止め、それを改善するための施策やモデル開発に注力しているとしましょう。このとき、ABテストにおける評価指標として、何を用いるべきかは明白なはずです。

当然ながら、このときモデル評価で用いるべき指標は「2. 無料ユーザーの有料プラン転換率」、もしくはそれに対する先行指標(たとえば、無料体験期間中の視聴時間や視聴作品数など)でしょう。逆に、この施策の効果を「3. 有料ユーザーの離脱率」で測るようなことは、あり得ないはずです。すなわち、ABテストにおいて用いるべき指標は、戦略が明確であれば自ずと定まるはずなのです。しかし実際には、少なくない現場で「施策やモデルの評価に使っている指標が本当に妥当であるか自信がない」などの悩みをよく耳にします。これまでの話を踏まえると、こうした悩みの根本的な原因は、施策導入やモデル開発の背後にあるべき戦略や意図が曖昧であるという点にあるとわかります。「2. 無料ユーザーの有料プラン転換率」がボトルネックであることが明確であり、それを改善する意図をもってモデルが設計されているのであれば、評価指標に対する迷いは生じないはずなのです。

また、評価方法に対して喫緊の課題を感じていない現場でも、「全ユーザー平均の指標」に基づいてABテストを実行してしまっているなど、気付かぬうちに落とし穴にハマってしまっているケースが見られます。このような評価では、各セグメントごとの効果が埋もれてしまい、重要なターゲットに対して実は有効性を示していた施策やモデルを、気付かぬうちに切り捨ててしまっているかもしません。この問題について理解すべく、ABテストに関する以下の数値例を見てみましょう。

総視聴時間 全ユーザー平均
Aモデル群 21分
Bモデル群 20分

この数値例を見ると、Aモデルが若干ながらより多くの視聴時間を稼いでおり、(実際は仮説検定の結果なども考慮しつつではありますが)このモデルを導入してしまいそうです。

しかし、この結果を無料体験中のユーザーと有料ユーザーにセグメント分けして分析してみると、実際には以下のような内部構造が隠れている可能性があります。

総視聴時間 無料ユーザー平均 有料ユーザー平均 全ユーザー平均
Aモデル群 10分 22.2分 21分
Bモデル群 20分 20分 20分

ここでは、無料ユーザーが全体の1割、有料ユーザーが9割を占める状況を想定しています。このように、全ユーザー平均の指標ではAモデルがわずかに優れているように見えたとしても、セグメント別に分析すると全く異なる実態が明らかになる可能性があります。

このような状況を踏まえたときに、AモデルとBモデルのどちらを本番環境にデプロイすべきかという判断は、まさに事前に策定されているべき事業貢献戦略によって変わります。仮に、「2. 無料ユーザーの有料プラン転換率」がボトルネックであり、それを改善することでサブスクリプション収益を改善する戦略を実行しているのであれば、上記の実験結果からはBモデルをリリースすべき可能性が高いと言えます。一方で、「3. 有料ユーザーの離脱率」がボトルネックであり、これを抑えるための施策についてABテストを実施しているのであれば、Aモデルがより適切である可能性が高いでしょう。もちろん、AモデルとBモデルの開発・運用コスト等に大きな差がある場合は、その観点からの検討も必要です。

重要なのは、戦略や意図が曖昧なままABテストを実施し、何となく全ユーザー平均の指標に基づいた比較を行っている限り、事業貢献の実現はほとんど運任せになってしまうということです。このような事態を防ぐためには、あらかじめ明確に定義された事業貢献戦略と、そこから導かれたボトルネック指標に整合した評価基準を設定する工程が不可欠です。たとえば、「無料ユーザーの〇〇の良し悪しに基づいてリリース判断を行う」や「有料ユーザーの△△の改善状況に応じてリリース判断を行う」といった具合に、重要セグメントや各種先行指標を明確に意識した評価基準が必要になる場合が多いでしょう。これにより、ABテスト等による評価の結果・解釈が事業貢献に整合しやすくなります。

なお、ABテストにまつわる上記の例では、簡単のために総視聴時間を1つの先行指標として用いていましたが、個別の現場において「無料ユーザーの総視聴時間の改善 = 有料プラン転換率の改善」や 「有料ユーザーの総視聴時間の改善 = 有料ユーザーの離脱率の改善」といった関係が成立していない場合、総視聴時間の良し悪しに一喜一憂することに意味がないことは、念の為補足しておきたいと思います。

指摘4:ボトルネックを狙い撃ちした施策が打てていない

これまでに議論した目標設定から評価基準に至るまでの明確な設計がされてはじめて、それを狙い撃ちするための施策やモデルの学習方法について考え始めることができます(実情としては、明確な目標や戦略なきままに、施策やモデル学習方法がなぜか思いついてしまっている、いわば「雰囲気ドリブン」な状況が多いというのが正直なところです)。

たとえば、「2. 無料ユーザーの有料プラン転換率」がボトルネックであり、その有力な先行指標として「総視聴時間」と「ユニークな視聴作品数」が浮上しているケースを考えましょう。つまり、「より長時間視聴したユーザーほど有料転換しやすい」一方で「一部の作品のみ視聴しているユーザーは比較的離脱しやすい」といった傾向を例として想定しています。このような状況では、「有料ユーザーの離脱率が大きく悪化しないことを前提条件とし、無料ユーザーの有料プラン転換率・総視聴時間・視聴作品数の改善をもって施策やモデルの成否を判断する」といった評価基準が設計されていることが考えられます。

このように評価基準が明確に定まっている状態では、適切なモデル学習の方法も自然と浮かび上がってくるでしょう。つまり、「無料ユーザーの総視聴時間と視聴作品数」を先行指標とし、それをもとに評価を実施しているのであれば、それらに直結した目的関数を持つモデルを学習すべきことは明らかです。多くの方が、たとえば「無料ユーザーに大きな重みを置きつつ、視聴時間を主な目的変数に設定し、さらに視聴作品数を担保するための多様性機構を組み込んだ推薦モデル」などを学習したくなってくるのではないでしょうか。

このように、事業貢献戦略に基づいてモデル設計を行うことで、多様性といった曖昧な理解がされがちな機構にも明確な合理性を持たせることができます。現状では残念なことに、多くの研究論文や現場の取り組みにおいて、「なんとなく多様なレコメンドの方がよさそうだから」もしくは「最近そのような主張をしている人が多いから」といった雰囲気で多様性を導入しているケースが見られます。しかし、そのような姿勢では、どのような意味での多様性を、どの程度加えるべきかを判断する基準がありません。一方、今回のようにユニークな視聴作品数が、無料ユーザーの有料プラン転換率の先行指標であると明確に位置づけられていれば、「なぜ多様性が必要なのか」「どのような多様性を目指すべきか」「その効果や良し悪しをどう評価すべきか」といった問いに明確な答えを持つことができるはずです。

少々話がそれましたが、あらためて整理すると、事業目標が定まらなければボトルネックは特定できず、ボトルネックが特定できなければABテストにおける評価基準も定まりません。そして、評価基準が明確でなければ、モデルの学習方法も本来思いつくことができないはずなのです。 ここまでの議論から、事業目標設定 → ボトルネック特定 → 評価基準設計 → モデル学習という工程を忠実に実行しない限り、検索レコメンドを通じた事業貢献が運任せになってしまうということが、十分伝わったのではないかと思います。また、明確な事業貢献戦略が描けていない状態で「何をどう改善したいのか」が定まらないまま、開発が雰囲気で進んでしまっているのではないかという現状に対する危機感を覚えた方もいらっしゃるかもしれません。しかし裏を返せば、これまで戦略なきモデル学習や評価が行われてきた現場には、まだ大きなポテンシャルが眠っている可能性があるとも言えます。実際、DMMさんをはじめとする連携先企業では、戦略思考に基づいたモデル学習や評価の重要性を認識し、すでに実践を開始されています。明確な目標設定やボトルネック特定の重要性など本記事の内容に共感いただいた方がいれば、今この瞬間から戦略思考に切り替えようとトライし始めることが、無駄なリソース投下を減らし、効率的な事業貢献につなげる第一歩になるかもしれません。

事業貢献戦略フレームワーク

以上の内容を抜け漏れなく実行するために、 『事業貢献戦略フレームワーク』を紹介する形で本記事を締めくくりたいと思います。本記事を読んで「さっそく自社プロダクトにおける戦略策定に取り組んでみよう」と思っていただいた方にとって、初動のガイドとして活用いただけるはずです。実際の企業連携の現場においても、戦略策定の際の思考回路の土台として、個人的に活用しているものになります。

さて、上図にて『事業貢献戦略フレームワーク』を導入しました。基本的にはこれまでに解説してきた内容の整理ではありますが、実践で何かをすっ飛ばしてしまうことが無いよう、各工程とその順序を漏れなく明記しています。

まず出発点となるのは、KGIと、それに対する具体的な貢献目標を定めることです。これはすなわち、検索レコメンドの役割が「収益最大化」なのか、はたまた「ユーザー・顧客満足の最大化」であるのか、あるいはそれ以外の何かであるのかを明確に定めることであり、検索レコメンドチームの存在意義そのものを再確認することでもあります。

次に、定めた事業貢献目標をいくつかの重要指標に分解します。本記事では、サブスクリプション収益を例として、4つのKPIへの分解を紹介しました。ただし、これはあくまで一例に過ぎません。事業構造やサービスの性質によって、KPIの分解方法は複数存在するのが一般的です。重要なのは、自社サービスの特性やチームの状況に即した分解を見つけるべく、まずは自分で考えて答えを出そうとする姿勢です。

重要KPIへの分解を行った後は、各種KPIの推移を確認したり、それぞれの改善に必要な技術・工数コストを整理することで、最も大きな改善余地が潜在するKPI(=ボトルネック)を特定していきます。慣れてくれば、ボトルネックを1つに絞るのではなく、改善余地の大きさに対応してKPIの優先順位を明確にしつつ、リソース配分を工夫するといった柔軟な戦略を立てることも可能です。たとえば、最も大きな改善余地が眠るKPIに工数の7割を、次点のKPIに3割を割り当てるといったイメージです。一方で、明確なボトルネックが特定できない場合は、KPIの分解が不適切であった可能性が考えられます。この場合は、別の切り口でKPIを再分解することを検討すべきかもしれません(図中赤色のループ)。

ボトルネックが特定できた段階で、初めてABテストやオフライン評価における評価基準を明確に定義できるようになります。すでに扱った通り、たとえば無料ユーザーの体験を改善すべきなのであれば「無料ユーザーの転換率やそれに対する先行指標」を評価軸とし、有料ユーザーの離脱防止を狙う場合は「有料ユーザーの離脱率やそれに対する先行指標」が評価対象になるべきです。このように、どのセグメントのどの指標を改善したいのか・するべきなのか(=ボトルネック)が不明確なままABテストを行ってしまうと、評価と戦略がちぐはぐになり、結果として事業貢献が運任せになるリスクが高まります。

ここまでのプロセスを漏れなく踏んで初めて、どんなモデルを得るべきかが明確になります。もし、①〜④の工程を適切に踏まずとも何らかのモデルが学習できてしまっている場合、それは(たとえ自分では考えたつもりであっても)戦略なき、いわば雰囲気ドリブンのモデル開発に陥ってしまっている可能性が高いと考えられます。どのユーザーの、どの指標を、どれだけ動かすことで事業貢献にどこまで近づくための取り組みであるか。最低限そこまで掘り下げた上で、その戦略に整合した評価基準とモデル学習を設計してこそ、「効率的な事業貢献のための、戦略ドリブンな検索レコメンド開発」が可能になるのでしょう。

以上、検索レコメンドにより事業貢献を達成する確率や効率性を担保する枠組みとして、『事業貢献戦略フレームワーク』をご紹介しました。このフレームワークについては、ブログやセミナーを通じて皆さんの反応を伺いながら、さらにブラッシュアップしていく予定です。いずれは、書籍の形でより体系的に整理したいと考えています。納得できた点・できなかった点・実運用とのギャップなど、どのようなご意見でも大歓迎です。もし本記事に何か感じるところがありましたら、ぜひラフに議論させていただければ嬉しいです。

さいごに

本記事では、検索レコメンド開発における戦略思考の重要性を整理しました。一般論や概念的な内容が中心ではありましたが、実際には、DMMの検索レコメンドチームの皆様と連携し、これらの考え方をDMM TVにおける推薦システム開発に応用しています。

DMM TVの推薦システムにおける具体的な戦略設計やそのプロセスについては、次回以降のブログ記事や 6月2日(月)開催予定のセミナーにて詳しくご紹介する予定です。本記事に関心を持っていただけた方は、ぜひそちらもご覧・ご参加いただければと思います。

DMM Data Blog

Discussion