目から鱗が落ちた日 - AIコーディングの予想を超えたManusイベントレポート
目から鱗が落ちた日 - AIコーディングの予想を超えたManusイベントレポート
AIコーディングの「常識」が覆された瞬間
「AIコーディングって、結局はテキストベースのコード生成でしょ?」
これが昨日までの私の認識でした。ChatGPTやGithub Copilotを使えば、確かにコードは書けます。
でも、複雑なGUIやインタラクティブな要素、特に3Dやカメラ映像を活用した
リッチなアプリケーションとなると、AIの限界を感じていました。
そんな固定観念が一日で覆されることになるとは。
今日、Manusの公式フェローが主催した東京渋谷のイベントに参加してきました。
会場は「404 Not Found」という皮肉めいた名前のクリエイター向けスペース。
渋谷の喧騒から少し離れた桜丘町にあるこの空間で、
私のAIコーディングに対する認識は完全に書き換えられることになります。
「提案」ではなく「成果物」を出すAIエージェント
イベントの主役は「Manus」という汎用型AIエージェント。
これが単なるチャットボットと一線を画すのは、「自律実行型」という特徴にあります。
従来のAIツールが「こうすれば良いですよ」と提案するのに対し、
Manusは「はい、できました」と成果物を直接提供してくれる。
この違いは、実際に目の前でデモを見るまで、その革新性を完全に理解できていませんでした。
日本初の公式Manusフェローとなったナル先生(@GOROman)によるライブデモでは、
複雑な指示を与えても、Manusが自律的に必要なツールを選択し、
ブラウザ操作からコーディングまでを一気通貫で実行する様子が披露されました。
会場には約50名のエンジニアやデザイナーが集まり、
デモの一つ一つに「おおっ」という歓声が上がります。
特に印象的だったのは、参加者の表情。
最初は懐疑的だった目が、デモが進むにつれて次第に輝きを増していくのが見て取れました。
コペルニクス的転回 - カメラ映像と3Dトラッキングの衝撃
イベントのハイライトは間違いなく参加者ハッカソン「Vibe Coding」でした。
ここで目撃したのは、ブラウザで駆動しているにもかかわらず、
カメラ映像を取得して顔と体認識トラッキングを駆使し、
ショート動画サービスでバズりそうなエフェクトを追加するアプリケーションの誕生です。
正直、AIコーディングではGUIは作れても、3Dを活用したりカメラ映像を認識して
合成をするなんてできないと思っていました。
それが目の前で、参加者がManusに指示を出すだけで形になっていく。
これは目からウロコというか、コペルニクス的転回と言うべき体験でした。
具体的には、以下のような技術的ブレイクスルーが実現されていました:
- リアルタイムカメラ映像取得: ブラウザのMediaStream APIを活用しながらも、複雑な権限処理やフォールバック処理をManusが自動的に実装
- 顔・体認識トラッキング: TensorFlow.jsベースのモデルを使いながら、パフォーマンスを最適化したコードを生成
- 3Dエフェクト合成: Three.jsを駆使し、認識した顔や体の位置に合わせてエフェクトをオーバーレイ
- フィルター処理: WebGLシェーダーを活用した高度な映像エフェクト処理
特筆すべきは、これらの実装が「AIにコードを書かせて、人間が修正する」という従来のワークフローではなく、Manusが自律的に必要なライブラリを選定し、互換性の問題を解決し、最適なパフォーマンスを実現するコードを生成していた点です。
参加者の一人は「これまでのAIコーディングは料理のレシピを教えてくれるシェフだったけど、Manusは実際に料理を作って出してくれるシェフだ」と表現していました。的確な比喩だと思います。
「Vibe Coding」で見えた新しい開発の形
ハッカソンでは、参加者がチームに分かれて約1時間という短時間でアプリケーションを作成しました。驚くべきは、参加者の多くがWebGLやTensorFlow.jsの経験がなくても、Manusとの対話だけで複雑な機能を実装できていたことです。
あるチームは「パーティモード」と名付けたアプリを作成。カメラに映った人の頭上に3Dパーティハットが表示され、笑顔を検出すると紙吹雪エフェクトが発生するというもの。別のチームは顔の表情に合わせて背景色が変化し、感情に応じた音楽が流れる「ムードミラー」を実装していました。
従来であれば、これらの機能を実装するには:
- WebRTCの理解とカメラAPIの実装
- 顔認識ライブラリの選定と学習
- Three.jsの習得と3Dオブジェクトの配置
- 表情認識アルゴリズムの実装
- WebAudio APIとの連携
...と、相当な知識と時間が必要だったはずです。それが、Manusとの対話だけで実現されていく様子は、まさに魔法を見ているようでした。
AIコーディングの新たな地平線
このイベントで私が目の当たりにしたのは、AIコーディングの可能性の再定義です。
これまでAIコーディングの限界として語られてきたことが、
実はツールの問題であって、AIの本質的な限界ではなかったのかもしれません。
Manusが示したのは、AIが「コードの断片を生成する」段階から
「機能を実装する」段階へと進化したということ。
そして、その進化は私たち開発者の役割も変えていきます。
これからの開発者に求められるのは、個々の実装詳細の知識よりも、
「何を作りたいか」というビジョンと、
それを実現するための対話能力かもしれません。
コードを書く技術からコードを「指揮する」技術へのシフト。
これは単なる効率化ではなく、創造のプロセス自体の変革を意味します。
パネルディスカッションでは、ナル先生が興味深い指摘をしていました。
「Manusのような自律型AIエージェントは、
プログラミング初心者と上級者の間の溝を埋める可能性がある。
初心者はより高度なことを実現でき、上級者はより本質的な問題に集中できるようになる」と。
Manusを体験する方法 - 読者限定招待コード
「百聞は一見に如かず」とはまさにこのことで、Manusの革新性は実際に使ってみないと完全には理解できないでしょう。
現在Manusは招待制で運用されていますが、今回のイベントで5つの招待コードをいただきました。この記事を読んでくださっている方に、特別に招待コードをシェアします。
招待コード: A549I67OMZ7WDW8
招待コード: BBLMZX2WHJXLD
招待コード: KT0PLVM7IATXLG
招待コード: JYQKNSI703US4B8
招待コード: QH6DEY0OJHS7E8S
Manusを試してみたい方は、以下のステップで登録できます:
- Manus公式サイトにアクセス
- 「Get Started」をクリック
- メールアドレスを入力し、上記の招待コードを使用
- アカウント設定を完了し、Manusエージェントを起動
初めての方には、まずは簡単なタスクから始めることをお勧めします。例えば:
- 特定のトピックについての調査レポート作成
- シンプルなWebアプリケーションの構築
- データ分析と可視化
- 画像生成と編集
そして慣れてきたら、今回紹介したようなカメラ映像や3D要素を活用したプロジェクトにも挑戦してみてください。きっと新たな可能性が見えてくるはずです。
AIとの共創時代 - 私たちの立ち位置
イベントの締めくくりで印象的だったのは、ナル先生の「AI と人間の協働時代を"体感"しよう。たぶん変わる、いや、変えていくのは私たち」という言葉でした。
AIツールの進化は、私たち人間の役割を奪うのではなく、
むしろ創造性を解放する可能性を秘めています。
コードの実装という「手段」からビジョンの実現という「目的」へと、
私たちの意識を移行させてくれるのです。
今回のイベントは、間違いなく私のManusへの考え方、
そしてAIコーディング全般への認識を進化させるものでした。
技術の進化は時に不連続に起こります。
そして私たちは今、そんな不連続点の一つに立ち会っているのかもしれません。
もし今回のイベントのような体験に興味を持たれた方は、X(旧Twitter)でハッシュタグ「#manusfellowtokyo」を追ってみてください。
次回のイベント情報や、参加者の作成したプロジェクトの共有などが見られるはずです。
AIとの共創時代、あなたはどんな未来を描きますか?
Manusのようなツールが普及した世界で、私たちクリエイターの役割はどう変わっていくのでしょうか。
体験してこそわかる革新性。この記事が、あなたの好奇心に火をつける一助となれば幸いです。
この記事は2025年5月25日に開催された「汎用型AIエージェントManusと共に作る未来」イベントの参加レポートです。
Discussion