- 1 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:17:44.65 ID:gjY7AWsK0
-
そんな中、日本では理化学研究所と富士通、東京工業大学、東北大学が、スーパーコンピュータ「富岳」を使ったLLMの研究を今まさに進めている。学習手法の研究からデータの法的な扱いまで幅広く検討し、日本のLLM開発の基盤を作るのが目的だ。
深層学習といえば、今ではGPUを使うのが一般的になっている。しかし富岳はそのGPUを搭載していない。日本にはGPU搭載スパコンも存在するのに、なぜ富岳を使ってLLMを研究するのか。
今回は富士通研究所・コンピューティング研究所の中島耕太所長と白幡晃一さんに、富岳を使ったLLM研究について、その意義を聞いた。富岳は確かにハイスペックなスーパーコンピュータだ。しかし、LLM研究における活用には、それだけでないもっと“現実的な理由”があった。
LLMの学習には大量の計算が必要になる。では、具体的には何回以上計算すればいいのか。これには一つの答えがあるという。
その数字が「10の23乗FLOPs」だ。富岳をはじめとするスーパーコンピュータの性能を示すとき「このスパコンの計算速度は○○FLOPsです」のようにいうことがあるが、今回の「FLOPs」は計算速度ではなく計算量を示す単位のこと。平易に書くなら「10の23乗回」となる。10の23乗は日本語でいうと「1000垓」。1兆の1億倍のことだ。
中島さんによると、過去の研究の中でLLMには不思議な性質が見つかっているという。LLMの学習を進めていると、しばらくはあまり派手な性能向上が見られないのだが、ある時点でなぜか急に能力が跳ね上がり、それまでできていなかったような処理をできるようになる──それが10の23乗FLOPsだ。
つまり、LLMを開発するならスーパーコンピュータに1000垓回分の計算をさせることが一つの目標になる。
一方で、1000垓規模の計算をするにあたっては、富岳以外の選択肢もある。一般的に深層学習に向いているとされるGPUを搭載したスーパーコンピュータとしては、産業技術総合研究所が構築・運用する「ABCIシステム」が日本最大とされてきた。搭載されているGPUの計算処理性能も富岳のCPUを超えている。
富士通研究所の白幡さんによると、ABCIシステムを完全に貸し切って10日ほど計算させれば、1000垓規模の計算をすることも「技術的には可能」(白幡さん)という。
しかし、現実的にはそうもいかない。ABCIシステムはさまざまな組織が共用しているものであり、長時間貸切ることが難しい。性能は高いが占有できないという“現実”がハードルになっている。
対して富岳は、各CPUの処理性能を見るとABCIシステムのGPUの17.75分の1程度。しかし、現実的に使えるリソースの規模を考慮すると1000垓規模の計算を実現できるのは日本で富岳だけになるという。
https://news.yahoo.co.jp/articles/1bdbea8e1c974b020735b44d446548a1a38d188e
- 71 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:19:22.14 ID:g4F7hVSCr
-
知らんけどどっちもベクトル計算はとくいなのでは
- 72 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:19:35.75 ID:57HcEQtJ0
-
端的に言うと「金がないから」
- 73 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:19:43.23 ID:ihteLmN80
-
2位じゃ駄目なんですか?
- 74 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:21:08.49 ID:cwmvfz9U0
-
1000垓もポチポチ計算して意味ある?その力何に使うん?
- 75 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:21:54.10 ID:kr3lnonid
-
富岳の実績を教えて
- 76 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:22:41.44 ID:2r0ZZIo30
-
富岳貸してくれマイクラサーバ立てたい
- 77 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:23:01.89 ID:iYlEZvcM0
-
答えになってないような
- 80 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:25:11.44 ID:eC/+BcCTr
-
富士通ヤシ
- 81 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:25:15.35 ID:n72rqAaD0
-
17分の1の能力しかないけど、17倍以上専有出来るから富岳でやるっていう
そのうち根性論とか温かみみたいなのにすり替わるぞ笑 - 82 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:25:31.61 ID:f+dpbZt+d
-
中抜き
- 83 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:26:52.18 ID:A4BC6jFOa
-
あきらめてNVIDIAかAMDからGPU買えよ
大量に世界最速のスーパーコンピューターは
EPYCとRadeon instinctの組み合わせだぞ - 84 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:28:17.64 ID:c6S5Eroq0
-
富岳を使うことそれが大日本の埃
- 85 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:29:09.09 ID:0WBvhcDv0
-
申請書に富嶽って書いとけば予算貰えるから
- 86 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:30:30.50 ID:X0twZngBM
-
ビルゲイツ物語もそうだろ
一カ月に使えるキャパ使っちゃって
目でピーナッツ噛むことになった - 87 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:30:54.14 ID:PV8+Js8e0
-
偉い人がGPUでやった方が効率良いって知らないだけだけだと思う
で、
決まった事はもう止められずGPUの無いスパコンでLLM研究する不毛な研究 - 88 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:31:21.37 ID:a0BJXTvC0
-
CA2LA
@ca2la1218
日本でGPT-4を作ろうとするとスパコン富岳を使って9年かかるらしい
それを90日で学習させたOpenAIはNVIDIAのGPU A100を25000基… - 91 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:32:46.45 ID:X0twZngBM
-
>>88
すげえな金でブン殴るやつ - 89 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:31:28.42 ID:ijGq1s4Oa
-
個別で動くから?
- 90 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:32:17.21 ID:PV8+Js8e0
-
一度偉い人が決めたら方針添加なんて出来ない
- 92 名前:一般よりも上級の名無しさん 投稿日時:2023/09/11(月) 16:32:49.06 ID:8U795akpM
-
どう考えてもgpu使ったほうが効率的だよね
ガラパゴス富嶽で作っても誰もついてこないだろ
コメント一覧