n8nは、最初は「ChatGPT周りの実験用」として触り始めました。
前回、
n8n を AlmaLinux9 にセットアップしたログ を
書きましたが、
普通のチャット用途は、結局別の構成に落ち着いたのですが、
中間処理や通知のハブとしてはかなり便利で、今でも結構使っています。
例えば
・処理のトリガー
・API呼び出しの整理
・結果の通知
・軽いデータ整形
このあたりは、n8nに任せるとすごく楽です。
ただ、最近ひとつ問題が出てきました。
画像処理を絡めると急に重くなることです。
PDF → 画像 → OCR の流れを試した
やろうとしていたのは、こんな流れです。
PDF
↓
画像に変換
↓
OpenAIへ送る
↓
OCRで文字認識
↓
ユーザーの質問と一緒に回答生成
社内の資料を質問できる仕組みを試していて、
その途中処理として PDFを画像に変換する処理を入れていました。
やったこと自体はそんなに難しくなくて、
普通にツールを入れていくだけです。
まず ImageMagick 周り。
dnf --enablerepo=epel install ImageMagick
dnf --enablerepo=epel install GraphicsMagick
Node 側も入れます。
npm install gm
ログを見ると、ちょっと気になる表示も出ていました。
added 7 packages, and audited 13 packages in 1s
2 high severity vulnerabilities
このあたりは検証環境なので、そのまま進めました。
PDFの変換には poppler を使っています。
dnf install poppler-utils
試しに変換。
pdftoppm -png aaa.pdf ./aaa-image
結果はこんな感じ。
aaa-image-1.png
aaa-image-2.png
aaa.pdf
とりあえず変換自体は普通にできました。
n8nで扱うためのフォルダも用意。
mkdir n8n_pdffile
chmod 777 n8n_pdffile
chown admin:admin n8n_pdffile
ここまでの作業自体は、特に問題なく
これらを Codeノード等で実装しました。
ただ、処理がとにかく遅い
問題はここからでした。
n8nのフローに
PDF → 画像 → OpenAI
の処理を組み込むと、
レスポンスがかなり遅くなります。
体感ですが
・画像変換
・OCR処理
・AI呼び出し
この全部が重なって、
一回の処理がかなり長くなる。
使っているサーバは、
今は Indigo の小さめ VPS です。
CPUもメモリも、いわゆる
「軽い検証用」のスペック。
普通のワークフローなら問題ないのですが、
画像処理系を入れると 急に非力さが出てきました。
正直、実用にはちょっと厳しい感じです。
n8n自体はすごく便利
誤解がないように書くと、
n8n自体はかなり便利なツールです。
最初は
「ChatGPTの前処理で使うかも」
くらいの気持ちだったのですが、
今はむしろ
・通知
・中間処理
・API連携
このあたりでかなり使っています。
なのでツールをやめるつもりはなくて、
問題は サーバ側のパワーかなと思っています。
VPSを少し上げるか悩んでいる
最近ちょっと考えているのが、
VPSのスペックを上げることです。
今検討しているのは
Xserver VPS。
このブログでも何度か書いていますが、
検証用の環境としては割と使っています。
2026年3月時点だと、
4vCPU
メモリ6GB
ディスク150GB
このあたりのプランが、
月払いで2200円くらいでした。
CPUとメモリが増えるのはもちろんですが、
地味に ディスク150GBあるのも嬉しいところです。
画像処理をやり始めると、
一時ファイルもそれなりに増えるので。
小さいVPSだと「できること」が変わる
今回ちょっと実感したのは、
ツールの問題ではなく、サーバの問題
というケースです。
n8n自体は
・API連携
・ワークフロー
・通知
こういう用途なら、
かなり軽く動きます。
でも
・画像変換
・OCR
・AI処理
このあたりを混ぜると、
一気に重い処理になります。
当たり前といえば当たり前ですが、
実際に組んでみるまで
あまり意識していませんでした。
今のところの考え
今のところは
・n8nはそのまま使う
・画像処理は少し抑える
・必要ならVPSを上げる
このあたりで様子を見ています。
ただ、使い道はどんどん増えているので、
そのうちサーバは入れ替えるかもしれません。
もし移行したら、
その時の構成もまたまとめようと思います。
この環境の構成まとめ



