🚀

目から鱗が落ちた日 - AIコーディングの予想を超えたManusイベントレポート

に公開

目から鱗が落ちた日 - AIコーディングの予想を超えたManusイベントレポート

AIコーディングの「常識」が覆された瞬間

「AIコーディングって、結局はテキストベースのコード生成でしょ?」

これが昨日までの私の認識でした。ChatGPTやGithub Copilotを使えば、確かにコードは書けます。
でも、複雑なGUIやインタラクティブな要素、特に3Dやカメラ映像を活用した
リッチなアプリケーションとなると、AIの限界を感じていました。

そんな固定観念が一日で覆されることになるとは。

今日、Manusの公式フェローが主催した東京渋谷のイベントに参加してきました。
会場は「404 Not Found」という皮肉めいた名前のクリエイター向けスペース。
渋谷の喧騒から少し離れた桜丘町にあるこの空間で、
私のAIコーディングに対する認識は完全に書き換えられることになります。

「提案」ではなく「成果物」を出すAIエージェント

イベントの主役は「Manus」という汎用型AIエージェント。
これが単なるチャットボットと一線を画すのは、「自律実行型」という特徴にあります。

従来のAIツールが「こうすれば良いですよ」と提案するのに対し、
Manusは「はい、できました」と成果物を直接提供してくれる。
この違いは、実際に目の前でデモを見るまで、その革新性を完全に理解できていませんでした。

日本初の公式Manusフェローとなったナル先生(@GOROman)によるライブデモでは、
複雑な指示を与えても、Manusが自律的に必要なツールを選択し、
ブラウザ操作からコーディングまでを一気通貫で実行する様子が披露されました。

会場には約50名のエンジニアやデザイナーが集まり、
デモの一つ一つに「おおっ」という歓声が上がります。
特に印象的だったのは、参加者の表情。
最初は懐疑的だった目が、デモが進むにつれて次第に輝きを増していくのが見て取れました。

コペルニクス的転回 - カメラ映像と3Dトラッキングの衝撃

イベントのハイライトは間違いなく参加者ハッカソン「Vibe Coding」でした。

ここで目撃したのは、ブラウザで駆動しているにもかかわらず、
カメラ映像を取得して顔と体認識トラッキングを駆使し、
ショート動画サービスでバズりそうなエフェクトを追加するアプリケーションの誕生です。

正直、AIコーディングではGUIは作れても、3Dを活用したりカメラ映像を認識して
合成をするなんてできないと思っていました。
それが目の前で、参加者がManusに指示を出すだけで形になっていく。

これは目からウロコというか、コペルニクス的転回と言うべき体験でした。

具体的には、以下のような技術的ブレイクスルーが実現されていました:

  1. リアルタイムカメラ映像取得: ブラウザのMediaStream APIを活用しながらも、複雑な権限処理やフォールバック処理をManusが自動的に実装
  2. 顔・体認識トラッキング: TensorFlow.jsベースのモデルを使いながら、パフォーマンスを最適化したコードを生成
  3. 3Dエフェクト合成: Three.jsを駆使し、認識した顔や体の位置に合わせてエフェクトをオーバーレイ
  4. フィルター処理: WebGLシェーダーを活用した高度な映像エフェクト処理

特筆すべきは、これらの実装が「AIにコードを書かせて、人間が修正する」という従来のワークフローではなく、Manusが自律的に必要なライブラリを選定し、互換性の問題を解決し、最適なパフォーマンスを実現するコードを生成していた点です。

参加者の一人は「これまでのAIコーディングは料理のレシピを教えてくれるシェフだったけど、Manusは実際に料理を作って出してくれるシェフだ」と表現していました。的確な比喩だと思います。

「Vibe Coding」で見えた新しい開発の形

ハッカソンでは、参加者がチームに分かれて約1時間という短時間でアプリケーションを作成しました。驚くべきは、参加者の多くがWebGLやTensorFlow.jsの経験がなくても、Manusとの対話だけで複雑な機能を実装できていたことです。

あるチームは「パーティモード」と名付けたアプリを作成。カメラに映った人の頭上に3Dパーティハットが表示され、笑顔を検出すると紙吹雪エフェクトが発生するというもの。別のチームは顔の表情に合わせて背景色が変化し、感情に応じた音楽が流れる「ムードミラー」を実装していました。

従来であれば、これらの機能を実装するには:

  1. WebRTCの理解とカメラAPIの実装
  2. 顔認識ライブラリの選定と学習
  3. Three.jsの習得と3Dオブジェクトの配置
  4. 表情認識アルゴリズムの実装
  5. WebAudio APIとの連携

...と、相当な知識と時間が必要だったはずです。それが、Manusとの対話だけで実現されていく様子は、まさに魔法を見ているようでした。

AIコーディングの新たな地平線

このイベントで私が目の当たりにしたのは、AIコーディングの可能性の再定義です。
これまでAIコーディングの限界として語られてきたことが、
実はツールの問題であって、AIの本質的な限界ではなかったのかもしれません。

Manusが示したのは、AIが「コードの断片を生成する」段階から
「機能を実装する」段階へと進化したということ。
そして、その進化は私たち開発者の役割も変えていきます。

これからの開発者に求められるのは、個々の実装詳細の知識よりも、
「何を作りたいか」というビジョンと、
それを実現するための対話能力かもしれません。
コードを書く技術からコードを「指揮する」技術へのシフト。
これは単なる効率化ではなく、創造のプロセス自体の変革を意味します。

パネルディスカッションでは、ナル先生が興味深い指摘をしていました。
「Manusのような自律型AIエージェントは、
プログラミング初心者と上級者の間の溝を埋める可能性がある。
初心者はより高度なことを実現でき、上級者はより本質的な問題に集中できるようになる」と。

Manusを体験する方法 - 読者限定招待コード

「百聞は一見に如かず」とはまさにこのことで、Manusの革新性は実際に使ってみないと完全には理解できないでしょう。

現在Manusは招待制で運用されていますが、今回のイベントで5つの招待コードをいただきました。この記事を読んでくださっている方に、特別に招待コードをシェアします。

招待コード: A549I67OMZ7WDW8
招待コード: BBLMZX2WHJXLD
招待コード: KT0PLVM7IATXLG
招待コード: JYQKNSI703US4B8
招待コード: QH6DEY0OJHS7E8S

Manusを試してみたい方は、以下のステップで登録できます:

  1. Manus公式サイトにアクセス
  2. 「Get Started」をクリック
  3. メールアドレスを入力し、上記の招待コードを使用
  4. アカウント設定を完了し、Manusエージェントを起動

初めての方には、まずは簡単なタスクから始めることをお勧めします。例えば:

  • 特定のトピックについての調査レポート作成
  • シンプルなWebアプリケーションの構築
  • データ分析と可視化
  • 画像生成と編集

そして慣れてきたら、今回紹介したようなカメラ映像や3D要素を活用したプロジェクトにも挑戦してみてください。きっと新たな可能性が見えてくるはずです。

AIとの共創時代 - 私たちの立ち位置

イベントの締めくくりで印象的だったのは、ナル先生の「AI と人間の協働時代を"体感"しよう。たぶん変わる、いや、変えていくのは私たち」という言葉でした。

AIツールの進化は、私たち人間の役割を奪うのではなく、
むしろ創造性を解放する可能性を秘めています。
コードの実装という「手段」からビジョンの実現という「目的」へと、
私たちの意識を移行させてくれるのです。

今回のイベントは、間違いなく私のManusへの考え方、
そしてAIコーディング全般への認識を進化させるものでした。
技術の進化は時に不連続に起こります。
そして私たちは今、そんな不連続点の一つに立ち会っているのかもしれません。

もし今回のイベントのような体験に興味を持たれた方は、X(旧Twitter)でハッシュタグ「#manusfellowtokyo」を追ってみてください。
次回のイベント情報や、参加者の作成したプロジェクトの共有などが見られるはずです。

AIとの共創時代、あなたはどんな未来を描きますか?
Manusのようなツールが普及した世界で、私たちクリエイターの役割はどう変わっていくのでしょうか。

体験してこそわかる革新性。この記事が、あなたの好奇心に火をつける一助となれば幸いです。


この記事は2025年5月25日に開催された「汎用型AIエージェントManusと共に作る未来」イベントの参加レポートです。

Discussion