🍅

Red Hat Summit: Connect Tokyo 2025 参加レポート

に公開

はじめに

こんにちは。三菱UFJインフォーメーションテクノロジー3年目の越智です。
普段は基盤系部署の内製開発チームのメンバとして、主に情報系システムの基盤設計・構築・テストを担当しています。

2025年10月に東京・赤坂で開催された「Red Hat Summit: Connect 2025 Tokyo」に現地参加しました。久々に外部カンファレンスに現地参加して、熱量や最新の技術動向など得るものが多くありましたので、本レポートで紹介します。

Red Hat Summit: Connect 2025 Tokyoってどんなイベント?

イベント概要

RedHat Summit: Connectは、米国で開催されるRed Hat最大級のイベント「Red Hat Summit」のローカル版のイベントで、各種Red Hat製品や関連するオープンソース技術に関する最新動向や導入事例が紹介されます。

https://www.redhat.com/ja/summit/connect/apac/tokyo-2025

今年のカンファレンスのサブタイトルは 「AIの未来をオープンソースが創り出す」 で、昨年に引き続きRed HatのAI技術への取り組みが全面に押し出されたものになっていました。
Red Hatといえばインフラ寄りの製品が多いイメージがありますが、AIの活用ユースケースなどインフラ以外が主テーマのセッションも複数ありました。

参加目的

普段の業務では以下のようなRed Hat製品や関連するオープンソース技術を使って基盤開発を行っています。これらの製品の最新動向や他社事例の収集のために参加しました。

  • Red Hat Enterprise Linux(RHEL)
  • Red Hat OpenShift(OpenShift)
  • Red Hat JBoss Enterprise Application Platform(JBoss EAP)
  • Ansible

参加セッションについて

当日参加したセッションは以下の通り。

参加セッション①: General Session

オープニングセッションは「オープンソースの時代にAIをどう活用するか?」というテーマで、経営陣からRed Hatが考えるこれからのAI戦略について語られました。AI領域でRed Hatが提供する価値として、以下の3点が強調されていました。

  1. 選択肢
    RHELやOpenShiftなどのインフラ製品を通じて企業戦略に沿ったアーキテクチャでAIをデプロイできる選択肢を与えること
  2. 学習から推論へ
    モデルの急速な進化に伴い、「学習済みのLLMでもそこそこ使える」という時代に。限られた計算資源を推論に振り向けることが重要。Red Hatも推論向けの製品に注力していく
  3. Any Infrastructure / Any Accelerator / Any Model
    特定のクラウドベンダの製品やインフラ製品(GPU)に囚われずに柔軟にLLMを適用できる環境を提供する

2点目と3点目は2025年のRed Hat Summitで発表されたRed Hat AI Inference Serverを強く意識したもののように感じました。Red Hatとして今後エンタープライズでの推論向けの製品に力を入れていく、という意思を感じました。

参加セッション②: OpenShiftと生成AIで実現する、これからのレガシーモダナイズ

このセッションではレガシープログラムのモダナイズに生成AIを活用する場合のアンチパターンとTobe像が紹介されました。

ポイントは 「Knowledge as a Code」 の概念で、レガシーコードを直接Javaなどに変換するのではなく、一度仕様書に落として仕様や業務ニーズを形式知化することが重要、と語られていました。

個人的にはRed Hatではインフラ寄りのサポートがメインと認識していたので、「AIをどのように使うか」という観点でのサポートや知見があるのは興味深かったです。

参加セッション③: Red Hat AI Inference Server/llm-dではじめるLLM推論の最適化

このセッションは2025年5月に発表されたRed Hat AI Inference Serverについての紹介セッションでした。

Red Hat AI Inference Serverとは一言でいうと、「オープンソースのLLM推論エンジン vLLMをベースとした推論エンジン」です。推論エンジンは自社インフラ(EC2なども含む)でLLMをホストするために必要となるミドルウェアの一種です。

https://www.redhat.com/ja/blog/red-hat-ai-inference-server-technical-deep-dive

大手パブリッククラウドでフルマネージドのLLMサービスが提供されている中、Red Hat AI Inference Serverを使用するのは以下のようなケースが考えられます。

  • 高スループットでLLMの推論を行いたいケース
    • パブリッククラウドではスループットがクオータで制限されているケースが多い
  • データの機密性やサービスレベルの制約でクラウドを利用できないケース

講演ではgpt-oss-120bをEC2のp5.4xlargeインスタンスにデプロイした場合を例に、具体的にどの程度の推論スループットが得られるのかの実例紹介や、マネージドサービスを使った場合とのコスト比較が行われていました。

gpt-oss-120bなどオープンソースでも相応に推論性能の高いモデルが出ている現在、モデルの提供元としてパブリッククラウドのマネージドサービスを使用すべきか、それとも自社インフラを使用すべきか、という点は今後PoCを重ねて知見を溜めていく必要があると感じました。

参加セッション④: 量子・AI時代のサイバー危機を突破せよ!Red Hat製品の最新セキュリティ機能が拓く未来戦略

このセッションはセキュリティ関連のセッションで、Red Hatが各製品に搭載している、または搭載予定の最新のセキュリティ機能が紹介されました。主な内容は以下の通りでした。

  1. RHEL10の耐量子暗号(PQC)対応
  2. OpenShiftでのConfidential Containers対応
  3. Ansible Automaton Platformを使用したインシデント対応、セキュリティ対応自動化

2つ目のConfidential ContainersはホストOSからコンテナのデータを秘匿するためのセキュリティ技術で、Cloud Native Computing Foundationのプロジェクトとして開発が行われています。マネージドのコンテナ系サービスを使用している場合に、クラウドプロバイダの管理者にコンテナ上のデータが漏洩するリスクを低減することができます。

(Confidential Containerの動作の仕組み)

(引用元) https://confidentialcontainers.org/docs/architecture/trust-model/cloud-native-personas/

ただし、こちらの機能はまだ講演時点でプレビュー段階で、OpenShift Virtualizationなどから順次対応が進められるようです。

まとめ

全体を通じてAI関連のセッションが多くあり、とりわけRed HatのAI戦略の主戦場は「推論基盤」にシフトしていく、という意思を強く感じるイベントとなりました。

現地でしか得られない熱量を感じ取れて非常に有意義な時間となりました。今後もこうした外部イベントでの学びを積極的に取り入れて業務への活用と知識発信を行っていきたいと思います。

Discussion