EVO-X2(Ubuntu)のストレージを断捨離する

EVO-X2購入後、2ヶ月弱で2TBのSSDが一杯に
EVO-X2を購入してからまだ2ヶ月も経っていないが、気づいたらSSDの空き容量が10%を切っていた。
$ df -h
Filesystem Size Used Avail Use% Mounted on
tmpfs 6.3G 2.9M 6.3G 1% /run
/dev/nvme0n1p2 1.8T 1.6T 161G 91% /
tmpfs 32G 84K 32G 1% /dev/shm
tmpfs 5.0M 20K 5.0M 1% /run/lock
efivarfs 128K 46K 78K 38% /sys/firmware/efi/efivars
/dev/nvme0n1p1 1.1G 6.2M 1.1G 1% /boot/efi
tmpfs 6.3G 116K 6.3G 1% /run/user/1000
このままではまずいので、ストレージの掃除をする。目標は1TBの空き容量がある状態に持っていくこと。
支配的なディレクトリを特定し、不要なファイルから優先的に消していく。

支配的なディレクトリの特定
下記のコマンドで、カレントディレクトリから1階層下のディスク使用量を計算し、容量の大きい順に並べ替えて表示できる。
$ sudo du -d 1 -h | sort -rh
1.3T .
854G ./AI
198G ./.cache
65G ./Downloads
43G ./.local
37G ./Documents
26G ./my_rocm_projects
18G ./github
7.0G ./Videos
3.9G ./.config
2.9G ./.npm
1.6G ./.wine_aventuengine
1.3G ./.rustup
790M ./.cargo
770M ./mastra_WS
672M ./.nvm
650M ./.m2
626M ./MCP
611M ./rocm_pytorch_wheels
589M ./.wine
566M ./Pictures
376M ./.vscode
326M ./.pyenv
250M ./node.js
162M ./snap
104M ./.deno
98M ./.bun
62M ./Blender
24M ./.claude
21M ./.net
20M ./claude_code_WS
3.6M ./src
860K ./.openhands
648K ./.aicommit2_log
324K ./rocm
316K ./.openshot_qt
216K ./.dotnet
168K ./.docker
76K ./.pki
56K ./.triton
36K ./.ollama
36K ./.gemini
32K ./.presage
28K ./.mcp-auth
24K ./.cmake
16K ./.steam
16K ./.ssh
12K ./Desktop
12K ./.gnupg
12K ./.dbus
8.0K ./tmp
8.0K ./gemini-cli_WS
8.0K ./.yarn
8.0K ./.idlerc
4.0K ./Templates
4.0K ./Public
4.0K ./Music
$ cd .cache
$ sudo du -d 1 -h | sort -rh
272G .
237G ./uv
25G ./stable-diffusion-webui
3.5G ./pip
1.7G ./google-chrome
1.6G ./yarn
1.2G ./pypoetry
521M ./huggingface
478M ./pnpm
335M ./thumbnails
191M ./tracker3
141M ./winetricks
128M ./mastra
120M ./comgr
107M ./electron
95M ./genesis
56M ./node-gyp
49M ./mesa_shader_cache_db
26M ./deno
18M ./taichi
13M ./blender
3.6M ./fontconfig
1.7M ./miopen
1020K ./gstreamer-1.0
448K ./samba
216K ./ibus
208K ./openshot
148K ./matplotlib
60K ./vlc
52K ./evolution
36K ./qtshadercache-x86_64-little_endian-lp64
32K ./gnome-calculator
28K ./pre-commit
20K ./numba
16K ./babl
12K ./update-manager-core
12K ./Microsoft
8.0K ./update-informer-rs
8.0K ./ubuntu-report
8.0K ./remmina
8.0K ./pipx
8.0K ./gnome-desktop-thumbnailer
8.0K ./git
8.0K ./gimp
8.0K ./gegl-0.4
8.0K ./JNA
4.0K ./obexd
4.0K ./mesa_shader_cache
4.0K ./ibus-table
4.0K ./containers
とりあえず、my_rocm_projectsと.cache/stable-diffusion-webui、Downloadsなどを消すことにする。
uvのclean
uvのキャッシュは必要なものもあるだろうが、いらないものもありそうなので一旦全部削除する。
まあこちらは一時しのぎで、235GBが一時的に減っても100GBぐらいはすぐに埋まりそう。
$ uv clean

AI関係のディレクトリ
AIディレクトリも一応確認。
🐔@EVO-X2:~$ cd AI/
🐔@EVO-X2:AI$ sudo du -d 1 -h | sort -rh
[sudo] gosrum のパスワード:
854G .
441G ./ComfyUI
229G ./models
49G ./orig_rocm-TheRock
32G ./genesis_WS
24G ./stable-diffusion-webui
19G ./stable-diffusion-webui-forge-on-amd
17G ./TheRock
16G ./rocm-TheRock
16G ./gfx1151
3.0G ./yomitoku
2.4G ./composable_kernel
2.0G ./AivisSpeech-Engine
1.8G ./aituber-kit
1.4G ./OpenHands
792M ./bvh2vrma
790M ./temp
787M ./emoji-search-app
629M ./OpenSeeFace
513M ./llama.cpp
456M ./OmniGen2
270M ./plamo-translate-cli
196M ./StabilityMatrix
133M ./Pox-code_v0.51
75M ./ollama
40M ./glTF-Transform
328K ./how-to-start-aituber
232K ./force-host-alloction-APU
12K ./docker_sd
12K ./Docker
8.0K ./sd
4.0K ./rocm_pytorch
modelsには基本的に、LLMのggufファイルが入っている。LLMは基本的にMac Studioを使うので全て消してしまう。また、TheRock関係も未練を断ち切るために消し去る。
ComfyUIやstable-diffusionは一応残しておくが、正式にgfx1151がUbuntuのpytorchでサポートされるまでは素直にWindowsを使う方が良いかも。

ollama
VLM、LLMはMac Studioを使うので、ollamaのモデルも一旦全部消すことにする。真に必要なときが来たら再度pullすれば良い。
$ ollama list
NAME ID SIZE MODIFIED
qwen2.5vl:32b-q4_K_M 3edc3a52fe98 21 GB 6 weeks ago
gemma3:27b a418f5838eaf 17 GB 7 weeks ago
hf.co/unsloth/Qwen3-32B-GGUF:UD-Q4_K_XL 36cbd8199759 20 GB 7 weeks ago
hf.co/unsloth/Qwen3-30B-A3B-GGUF:UD-Q4_K_XL 98772416be78 17 GB 7 weeks ago
qwen3:4b a383baf4993b 2.6 GB 7 weeks ago
$ ollama rm qwen2.5vl:32b-q4_K_M gemma3:27b hf.co/unsloth/Qwen3-32B-GGUF:UD-Q4_K_XL hf.co/unsloth/Qwen3-30B-A3B-GGUF:UD-Q4_K_XL qwen3:4b

docker, podman
dockerイメージは気づかないうちに容量が増大していく。そこで、使っていないimgはすべて削除することにする。
まずは、どんなimgがあるのかを確認する。
🐔@EVO-X2:~$ docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
ghcr.io/rocm/therock_pytorch_dev_ubuntu_24_04_gfx1151 pytorch_build 3650c0447489 40 hours ago 19.3GB
genesis-amd latest f0c083cf95a7 12 days ago 62.7GB
ghcr.io/aivis-project/aivisspeech-engine cpu-latest 2c0c803b6e88 4 weeks ago 4.71GB
pytorch-manylinux-gfx1151 6.5.0rc f11af8184ce3 6 weeks ago 8.1GB
rocm-manylinux-gfx1151 6.5.0rc 5b70350bae16 6 weeks ago 7.91GB
<none> <none> 952d88912ba1 6 weeks ago 7.91GB
<none> <none> a409cfe8af44 6 weeks ago 7.91GB
🐔@EVO-X2:~$ podman images
REPOSITORY TAG IMAGE ID CREATED SIZE
<none> <none> 99aa52316003 12 hours ago 13.9 GB
<none> <none> 6372c49f31c0 24 hours ago 10.1 GB
<none> <none> fec77ea3cc59 24 hours ago 10.1 GB
<none> <none> e1f0eb987221 25 hours ago 10.3 GB
<none> <none> 7c448d0ba86c 25 hours ago 10.3 GB
<none> <none> 670879b07810 25 hours ago 10.3 GB
<none> <none> aec7ea1f6fac 25 hours ago 10.4 GB
<none> <none> a25d5d728e8e 26 hours ago 10.4 GB
<none> <none> 084a72ed3f7e 27 hours ago 10.3 GB
<none> <none> 76ed728f9d84 27 hours ago 10.3 GB
<none> <none> b292df482661 27 hours ago 10.3 GB
<none> <none> df77c06985fd 27 hours ago 10.3 GB
<none> <none> 069d44adf46f 27 hours ago 10.3 GB
<none> <none> 2b0a85cbd378 28 hours ago 10.3 GB
<none> <none> 30b05124f5ed 28 hours ago 9.99 GB
<none> <none> 0748387d4f68 28 hours ago 9.99 GB
<none> <none> 77611ddf0253 28 hours ago 9.99 GB
<none> <none> f1ed8e2c11c6 28 hours ago 10.1 GB
<none> <none> 390bc83ace54 28 hours ago 10.1 GB
<none> <none> a58d6e86a597 28 hours ago 10.1 GB
<none> <none> 3d17e2cea196 28 hours ago 10.1 GB
<none> <none> 2e66a91d1e21 28 hours ago 10.3 GB
<none> <none> d1e9935f4e6b 28 hours ago 10.3 GB
<none> <none> 20da6de0e921 29 hours ago 10.3 GB
<none> <none> e60817c350c7 29 hours ago 10.3 GB
<none> <none> 215cd32788a1 29 hours ago 10.3 GB
<none> <none> d345a2501866 29 hours ago 10.1 GB
<none> <none> 43f707c467ee 29 hours ago 10.3 GB
localhost/rocm-dev-f41 latest 2a3b2d4713f2 29 hours ago 9.99 GB
<none> <none> 099f4554bb77 29 hours ago 4.33 GB
ghcr.io/astral-sh/uv latest 043c9997d451 3 days ago 43.1 MB
registry.fedoraproject.org/fedora-toolbox 41 04974a8dd05e 6 weeks ago 1.15 GB
ほとんどはpytorchのビルドに挑戦して失敗した残骸なので、ひたすら消す。

これだけ消しても、まだ1TBに復帰できていない。
$ df -h
Filesystem Size Used Avail Use% Mounted on
tmpfs 6.3G 2.9M 6.3G 1% /run
/dev/nvme0n1p2 1.8T 857G 882G 50% /
tmpfs 32G 213M 32G 1% /dev/shm
tmpfs 5.0M 20K 5.0M 1% /run/lock
efivarfs 128K 46K 78K 38% /sys/firmware/efi/efivars
/dev/nvme0n1p1 1.1G 6.2M 1.1G 1% /boot/efi
tmpfs 6.3G 148K 6.3G 1% /run/user/1000
やはり画像・動画生成のモデルは別のストレージに入れるべきか。。。なんとかあと120GB、uvで100GBぐらい消費することを考えて、できれば220GB掃除したい。
とはいえ、ComfyUIで441GB使いながらは厳しいか。やむを得ない。モデルも型が違うだけのものやあまりつかっていないものは消すことにする。
$ sh ~/du.sh
485G .
441G ./ComfyUI
33G ./genesis_WS
あとは、現状UbuntuではComfyUIがまともに動かないので、必要最小限のものを残してWindowsのストレージに移動する(m.2同士の移動なら数GB/sの速さが出るので必要なときにコピーすれば良い)。
そして、Ubuntuでpytorchの問題が解決すれば、こんどこそWindowsを起動する必要性はなくなるだろう。BIOSのアップデートなどはWindows上で行うほうが楽だが。
とりあえずComfyUI用のモデルを移動すると一気に容量が増えた。
$ df -h
Filesystem Size Used Avail Use% Mounted on
tmpfs 6.3G 2.9M 6.3G 1% /run
/dev/nvme0n1p2 1.8T 461G 1.3T 27% /
tmpfs 32G 183M 32G 1% /dev/shm
tmpfs 5.0M 20K 5.0M 1% /run/lock
efivarfs 128K 46K 78K 38% /sys/firmware/efi/efivars
/dev/nvme0n1p1 1.1G 6.2M 1.1G 1% /boot/efi
tmpfs 6.3G 152K 6.3G 1% /run/user/1000
/dev/nvme1n1p3 1.9T 1.2T 711G 63% /media/gosrum/Windows
これでしばらくは安泰だろう。ただし、やはりAIを色々試したくなるとやはり4TBのSSDが欲しくなってくる。
まあ、2TBのストレージ自体は過去に使っていたものも含めると何枚かあるので、最悪Windowsのストレージを引っこ抜いてそこに換装すれば、AIとそれ以外でそれぞれ2TBづつになるのでだいぶ余裕ができるはず。

他にも/var/tmp
も50GBぐらいあって消せそうなのだが、720時間で消えるそうなので今焦って消す必要はなさそうと判断し、放置することにした。
$ sh ~/du.sh
[sudo] gosrum のパスワード:
185G .
135G ./lib
49G ./tmp
615M ./log
192M ./cache
94M ./crash
7.3M ./backups
5.5M ./snap
40K ./spool
4.0K ./opt
4.0K ./metrics
4.0K ./mail
4.0K ./local
まとめ
EVO-X2(Ubuntu)のストレージが残り10%以下となっていたので、思い切って断捨離をした。
その結果、161G→約1.3TBまで容量を確保することができた。支配的なものは以下の通り。
- Downloadsのゴミ
- docker, podmanイメージ
- ollamaモデル → LLM/VLMはMac Studioにまかせる
- ComfyUIモデル → gfx1151のpytorchがUbuntuで正式サポートされるまではWindows上に配置。
- uv cache → 時間が経てば半分以上はまた埋まりそう
とはいえ、これでだいぶ余裕はできた。ストレージを大きくしたところでゴミとそうでないものを区別できないと結局足りなくなるし、掃除が大変になるのでやはり頭の整理のためにも定期的に掃除はした方が良いと再認識した。