IBMのおもろそうAI研究18記事一気読み
初めに
おもろいページ見つけて土曜日昼から一気に読んだ。3つ日曜追加
https://research.ibm.com/blog
題は自分視点でつけた、おもったこと書いてみた なぜか17個や
題 : EBTは2023にIBmが出していた?
思ったこと、特記 : amazon、stanfordとかははうまく実験までもってただけ?
題 : アナログ・インメモリ・コンピューティング
思ったこと、特記 : アナログだけではシステム完結できないよね? DAC必要? 自然な感じの回路で効率性UP
題 : TextArena (大規模言語モデルの社会性スキル学習) 作ったよ
思ったこと、特記 : 楽しそう!
題 : IBM Granite Visionが20Bで見た目理解タスク世界2位?
思ったこと、特記 : RAGで活用できそう
題 : 分子予測機で、データごとにMoEにして高精度OSSつくったよ
思ったこと、特記 : SMILESとか3Dデータとかそれぞれのデータの形式別にいい点、悪い点に注目がいい!
題 : MCPの上位版?つくったよ
思ったこと、特記 : MCP,A2Aと熱い分野 MCPはJSON-RPCに対して、これはRESTful
題 : AIの貢献度を明示的に!
思ったこと、特記 : 知的労働者の世界の75%が仕事でAIを使用とのこと。すごい、AI依存度高まる!
題 : いろいろな生成AIむけ透かし技術
思ったこと、特記 : 生成プロセスに透かし組み込む(ある語群を多く入れるとか)精度わるくなる
題 : 失敗データを集めたい!
思ったこと、特記 : 失敗データもあったほうがモデル精度高いって当たり前?のこと言っている。でもこれを言って、集められたら効果でかい!
題 : LLMチェック!!!
思ったこと、特記 : 幻覚発見ツールでTOp10の6占める。FactReasonerは外部ソース参照、SHAP法まねて予測を解釈、トリガーワード発見
題 : Granite Vision2
思ったこと、特記 : エンコーダーとプロジェクター(decorderでないんだ?)、Docling使って合成データ作成
題 : BeeAIマルチエージェント実験場作ったよ
思ったこと、特記 : AiderやGPT Researchも試せる
題 : ALoRA 実行時に呼ばれる
思ったこと、特記 : ㎸キャッシュで速いらしい
題 : ZipNN ロスなく圧縮、完全復活
思ったこと、特記 : AIモデルの指数部が同じ12の数字で99%になるらしい。これを利用して圧縮率たかめた。huggingfaceとかになるとこの圧縮率ばかにできない!
今日別の論文から辿りついた東京理科大の論文がこの論文と似たようなこと言ってた.
題 : 小さく高性能な時系列モデル
思ったこと、特記 : マスク学習している!低周波、高周波、その他の予測headを統合して予測!
題 : AgentOps
思ったこと、特記 :LangChain、LangGraphとかにも対応Agentの中身をトレースできる
題 : 歩行からいろいろわかる
思ったこと、特記 : 合成データで高性能
全体的に思ったこと
IBMはos/2 とか DB2とか名前がダサかった
ecilpseとかSUN隠すとか意味もあっていいと思ったけど、マーケティングが弱いからあんまし話題にならない?重要視していないなら、かっこいい。
今年の記事の一部、1社でこれだけやっているのは、組み合わせも考えたらやっぱりすごい会社
あんまし話題にならないと思ったのは、自分には難しいかったり、AIのなかでも
基本、基礎で、将来花開くようなものが多い?のかもと思った。
あとがき
記事よかったら、いいね♡ 押してね!
Discussion