🐕

[つぶやき]gpt-ossの検証に導入されているmalicious fine-tuning(MFT)に関して

に公開

概要

想定読者:

  • open-aiがローカルaiであるgpt-ossをリリースした際に「MFT」って単語が出たけれどなんだ?ってなった後、それは結局今後のエンジニアにとって何に関わるの?ってまだ解像度が浅い同志のような方

  • 結論:https://zenn.dev/johndoe/articles/016cd6244bc56c#これから


経緯

  • open-aiがつい先日ローカルaiであるgpt-ossを発表
  • 様々なサイトを拝見させていただく際に、https://openai.com/ja-JP/index/estimating-worst-case-frontier-risks-of-open-weight-llms/ にて記載していた「悪意あるファインチューニング(MFT)」への解像度が論文等を整理して読んでもまだ浅いと感じた
  • なので自分の業務領域に落とし込みながら自己整理したい

MFTが何か論文解説していただいている記事はこちら

https://jobirun.com/gpt-oss-malicious-fine-tuning-risk-assessment/

そもそも

まず、gpt-ossで何がすごいのかっていう整理

  • ローカルaiであることから、データプライバシーを重視する企業での本格利用が急速に動くのではないか
  • 従来のモデルから性能が落ちている等もなく、コスト・カスタマイズ性を意識したアプローチも可能

gpt-ossがどのようなパターンで有効か整理していただいている記事はこちら

https://aiebisu.com/2069/


mftはどう関与してくるのか

  • gpt-ossはオープンウェイトモデル: モデルの重みが公開されており、誰でもアクセスし、利用、改変、ファインチューニング(追加学習)ができることが特徴
  • ただこの状態は悪意のある攻撃者がこれらのモデルを入手し、安全対策を回避したり、危害を最大化したりするためにファインチューニングする可能性があるという危険性を孕んでいた
  • その対策として「悪意あるファインチューニング:malicious fine-tuning(MFT)」を施しセキュリティリスクに対してシミュレート
  • その結果、公開しても問題ないという判断を下したという経緯

  • ここで、一日本企業のエンジニアとしての認識内容は、これまで危惧として存在していた脆弱性の混入ルートに対して、超えてはいけない防衛線である「最悪のフロンティアリスク」は担保されているという補償をしてくれているのだということ
  • 実際に使用する際は、この取り組みを実施しているから完全に安全!と言うわけではなくまだまだ課題点の残る結果が出ていると言うことを社内外に周知したうえで、自社条件としてどれまでの利用が可能かを合意形成する必要があると感じている

これから

  • オープンウェイトモデルの危惧されていた課題点に対して、公開可能と判断された上で提供されたgpt-ossは、プライバシー性、コスト性、カスタマイズ性の全てにおいて、これまでのaiモデルに対しての用途を大幅に広げるであろうという月並みの感想
  • 一方で、エンジニアとして利用に持っていく際は、プライバシーが守られているから大丈夫!ではなくmftを通しての現状の検証結果を理解し、別の課題点(脆弱性)もあるということを伝えた上で各関係者と使用に対して落とし所をつける必要があるという月並みの感想

参考文献・サイト

Discussion