実装はAI、責任は人間
はじめに
株式会社medibaでバックエンドエンジニアをしているRetchです。
社内でのAI利用が当たり前になり、
開発や意思決定の中にAIが自然に組み込まれるようになってきました。
その過程で、AI活用に関する記事や議論に触れる機会も増え、
いくつか気になる点を感じるようになりました。
本記事では、そうした日々の体感をもとに、
AI時代にエンジニアとして意識しておきたい考え方を整理します。
1. 「AIがやったから」は責任を免除しない
最近、「とりあえずAIでやった」という言葉を耳にすることが増えています。
この表現自体が問題だとは思いません。
正しく使えば、AIは非常に強力な道具です。
ただし、AIが生成した成果物であっても、
責任は常に利用者にあります。
「AIが変なコードを書いた」
「AIに任せたらこうなった」
こうした言葉は理由にはなりません。
レビューせず、理解せずに採用した時点で、
それは人間側の判断です。
2. AI(LLM)は万能ではないという前提
LLMは非常に強力ですが、「従来の機械学習(ML)はもう不要だ」ということにはなりません。
LLMが機械学習や既存の手法を淘汰したわけではありません。
LLMはあくまで、文章の理解や生成など自然言語を扱うことに強いモデルです。
一方で、画像処理・推薦・判定(分類)などは、従来の機械学習やルール、検索・ランキングといった仕組みで、今でも十分に高い品質と安定性を出せる領域です。
最近は「とりあえずLLMを挟む」という話も見かけますが、そこは一度立ち止まって考えたいです。
3. AI時代でも基礎が問われる
「AIで実装できる時代だからこそ、基礎が重要だ」
という話をよく聞きます。
実際、その通りだと感じています。
AIで爆速に作れるようになったからこそ、基礎が“品質の差”になります。
- 出力されたコードが妥当か
- 境界条件を満たしているか
- 将来の修正に耐えられるか
これらは、基礎知識がなければ判断できません。
AIは品質を高めることがありますが、品質を保証するわけではありません。
4. AIを使うほど「理解」が必要になる
AIが出した結果でも、最終的に採用して動かしたのは自分(自社)です。
つまり仕事としては、「知らなかった」では済まない構造に置かれます。
不具合やトラブルが起きたときに「AIがやりました」は免責になりません。
現場で起きやすいのは、違法かどうか以前に、利用規約の趣旨から外れた“グレーな使い方” です。
たとえば「外部サービスを想定外の目的で使う」「禁止されている自動取得・自動投稿をさせる」といったズレは、規約違反と判断されれば削除・凍結・利用停止などで普通に止まります。AIに実行を任せるほど、このズレは気づかないうちに大きくなりがちです。
もう一つ重要なのは、責任の評価は「本当に知っていたか」だけでなく、知り得たか(注意すれば分かったか) でも変わる点です。
「規約で禁止されていた」「公開してはいけない場所に出してしまった」「想定外の挙動になっていた」といったことは、あとから「知らなかった」では通りにくく、確認すべきだったと見なされる可能性があります。
だからこそ、AIの出力や実行結果をそのまま通すのではなく、
何が起きうるのかを理解した上で使う必要があります。
5. 「それAIでやったでしょ」という認識の問題点
AIが普及するにつれ、成果そのものではなく、
その裏にある努力や判断が軽視される場面が増えています。
「それAIでやったでしょ」という言葉は、他者の能力を否定するための攻撃というより、
理解できないものを自分の認知から切り離す反応に近いように感じます。
人は、自分にできないことを客観的に評価するのが難しく、
理解の外側にある成果を「特別な道具によるもの」として処理してしまいがちです。
その結果、
AIを使いこなせる人と、そうでない人のあいだに、
認識の分断が生まれています。
6. 同じAIを使っても成果が揃わない
AIを使いこなして圧倒的な成果を出す人は存在します。
同じAIを使っても、同じ結果を出せるとは限りません。
少なくとも私自身は、同じ条件で同じ成果を出せるとは思えない事例を多く見てきました。
その差は、AIの有無ではなく、
前提理解・試行錯誤・設計力といった部分にあると思います。
この差を「AIがあるかどうか」の話にしてしまうと、
なぜ同じAIを使っても結果に差が出るのかが見えなくなります。
AIは成果を平等にする道具ではありません。
人が持っている理解や設計力、試行錯誤の量を
そのまま拡張するだけです。
だからこそ、成果を見るときには
「AIを使ったか」ではなく、「どこまで理解して使っていたか」を
評価の軸に置く必要があると思います。
終わりに:AIと働くときのマインドセット
AIが書いたコードであっても、
最終的に 「このコードは自分が書いた」と言わなければならない立場に立つと、
自然と向き合い方が変わります。
- どこを信頼してよいのか
- どこにリスクがあるのか
- 何を理解しないまま使っていないか
責任を引き受ける前提に立つことで、
AIの出力はそのまま受け取るものではなく、検討し、問い直す対象になります。
AIをどう使うか以前に、どう責任を持つかを決めること。
それが、AIと長く付き合っていくための一番の前提だと感じています。