Microsoft、CPUで爆速動作するAI基盤を公開、Mac 1台で日本最大のAIデータセンターを超える演算性能を叩き出してしまう😰

サムネイル
1 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:53:53.14 ID:YRXWsGb00

マイクロソフトの研究者たちは、2億のパラメータを持つ画期的な1ビットAIモデル「BitNet b1.58 2B4T」を発表しました。このモデルは、AppleのM2チップを含む標準的なCPU上で効率的に動作し、主要なベンチマークにおいてMeta、Google、Alibabaの同規模モデルを大幅に少ないメモリ使用量で上回ります。

https://www.perplexity.ai/page/microsoft-releases-efficient-a-EHIeJxL9Syub8AV5WzXu8w

2 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:54:27.31 ID:okmf14WH0
1bitなあ…
3 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:54:41.66 ID:I8QuhVli0
つまりどういう事だってばよ
12 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:56:54.15 ID:f3Th7sBM0
>>3
世の中、右か左かでしか判断出来ないバカウヨエミュレーターが簡単に作れる
41 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:07:16.69 ID:jJ68JAhv0
>>12
大事なのは左右じゃなくて快か不快かだろ?
4 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:55:24.48 ID:BaO3dn3A0
まじ?
5 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:55:28.48 ID:YRXWsGb00
1ビット量子化では、モデルの重みは-1と1の2つの値のみで表現されます。この極端な圧縮手法により、従来の32ビットや16ビット精度のモデルと比べてモデルサイズが劇的に削減されます。BitNet b1.58はこの概念をさらに発展させ、-1、0、1の3つの値を用いる三値量子化を採用しており、パラメータあたり約1.58ビット(log₂(3) ≈ 1.58)となります。この手法はゼロ値によるスパース性を導入しつつ、これらの値による乗算を単純な加算や減算、あるいは演算のスキップに置き換えることで計算効率も維持します。

量子化処理は学習時と推論時の両方で行われます。学習時には、BitNetはQuantization-Aware Training(QAT)に類似した「フェイク」量子化手法を用い、モデルが低精度表現の制約に適応するように学習します。重みは学習中は高精度(通常はINT8)で保存されますが、フォワードパスではabsmean量子化などの手法で三値に量子化されます。

このネイティブな学習アプローチにより、BitNetは後処理型の量子化手法と一線を画し、極端な圧縮にもかかわらず性能を維持しつつ、コスト効率が高く高性能な言語モデルの新たなスケーリング則を確立しています。

6 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:55:33.79 ID:JmCv4JlCH
中国が最速だったやつ?もっと早いの?
7 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:55:37.30 ID:weEhHmWs0
さっさと実用化してからドヤ顔してくださいねー
8 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:55:43.68 ID:2Pr4TNuf0
革ジャン逝った
9 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:56:15.52 ID:FiVJizlwM
俺の64GBメインメモリが火を吹く日が来たか
10 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:56:18.86 ID:i6K97jtIH
でもメモリは必要なんでしょ?
11 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:56:35.88 ID:Y+dkBAVtH
ビデオメモリ死ぬほど使うんやろ
事実上Apple専用機だな
Appleはユニファイドメモリがあるからメモリ感覚でビデオメモリをジャブジャブ使えるから適してる
13 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:57:15.06 ID:/aXnja0J0
昔のSISCとRISCみたいな感じ?
14 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:57:20.08 ID:r5H9p50K0
データセンターの奴は解雇
15 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:57:44.45 ID:ej3vXqRV0
1bitのAIモデルって何?
16 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:57:50.94 ID:YRXWsGb00
CPUは高クロックで動作する少数のコアによる逐次処理に優れる一方、GPUは数千ものコアによる並列アーキテクチャでAIワークロードを圧倒します。

このアーキテクチャの違いが大きな性能差を生み出し、GPUによるトレーニングはCPUでは数時間かかる処理を数分で完了でき、モデルサイズが大きくなるほどその性能差は拡大します。
大規模言語モデルでは、GPUは同等のCPU実装と比べて1.23倍~2.7倍高速な応答時間を実現し、メモリ使用量も2.6倍~3.6倍少なくて済みます。

ただし、性能のダイナミクスは一面的ではありません。
CPUは小規模なモデルやバッチサイズにおいて依然として優位性を持ち、バッチサイズが64を超えたりモデルの次元が一定の閾値を超えるまでは、GPUと同等の推論速度を発揮します。
また、CPUは低レイテンシーが求められるアプリケーションや複雑な分岐ロジックを必要とする逐次タスクでも強みを発揮します。
この補完的な関係性から、BitNet b1.58のような新しいモデルはビット演算を活用してCPUの強みを引き出すように設計されており、標準的なCPU上でも1000億パラメータモデルで人間の読書速度(毎秒5~7トークン)を実現しつつ、従来モデルと比べて消費電力を19~41倍も削減しています。

17 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 22:58:41.41 ID:HpgTKCvT0
早く革ジャンの息の根止めてくれ
29 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:04:06.29 ID:WXjyKosq0
>>17
革ジャンって誰?
18 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:00:04.44 ID:L5hSUbXe0
この1bitモデル考案したのもMSの中国人なんだよな
VALL-Eの論文もMSの中国人だしMSは良い人材囲ってんな
19 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:00:44.51 ID:Y1jNEkkJ0
1.58bitじゃん
てかフラクタル次元圧縮とか
シュタインズゲートっぽくて草
20 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:00:53.20 ID:fspMWH410
なんでマイクロソフトがMac使ってんの
23 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:01:40.19 ID:LKBuNY140
>>20
ビル・ゲイツもMacbookにiPhone使ってるよ
37 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:05:17.38 ID:Vuq/+aVX0
>>23
そうだっけ
俺は聞いたことねえな
21 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:01:24.85 ID:FZB9u+Zb0
INT1だっけ。精度は若干落ちるけど処理自体は爆速になる
もともとAIの処理に必要な演算器ってCPU内部にあるやつが一番高速なんで
メモリ容量や帯域の制約が解き放たれるならGPUやNPUより高速化できる
22 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:01:33.95 ID:MEH1ikQ90
NVIDIA株持ってるやつ大丈夫?
24 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:01:48.06 ID:IZlAI+c/0
NVIDIAどうなんの?
25 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:02:20.63 ID:S/NGYVS70
これが使えるならAMDのRyzen AI Max+ 395はNVIDIAのDGX Sparkに勝てる
26 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:02:26.74 ID:eXgpcrdBH
昔シャープの1bitアンプあったな
即買っちゃったよ
27 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:03:58.77 ID:MQk25A1n0
アルゴリズムの話?
28 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:04:01.34 ID:S/NGYVS70
しかし-1あるのに1bitっていいの?って疑問がわかなくもない
30 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:04:09.37 ID:FZB9u+Zb0
NVIDIAは学習では相変わらず首位。こいつはサイズと演算精度落とした場合のモデルの推論処理に特化
36 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:05:09.54 ID:S/NGYVS70
>>30
学習にも使うってよ
ちょい上みてみ
31 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:04:11.72 ID:GF4gwTV80
俺のMacminiM2でMidjourney使えるようになればいいな
32 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:04:13.08 ID:jOk+N9Vu0
NVIDIAはCPUは作れないんで
ARMを持ってる孫が激アツチャンス
33 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:04:15.80 ID:454YPHjb0
NVIDIAおわた
34 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:04:30.08 ID:XJO3wrkV0
新理論だのは言ったモノ勝ちになりつつあるから成果物として完成した物を出したやつが本当の勝者になるんだろうな
35 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:04:52.26 ID:4t/dbOMC0
なんでマイクロソフトなのにMac使ってんだよ
40 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:06:51.19 ID:Vuq/+aVX0
>>35
MSはソフト屋サービス屋であってハードは問わない
というかハードで今までに失敗しすぎている
38 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:05:19.12 ID:AkZIWaPm0
個人ノートパソコン上でAI二次嫁の動作可能ですか?
39 名前:一般よりも上級の名無しさん 投稿日時:2025/04/20(日) 23:05:50.11 ID:8Gj3yk350
本当なん?
Microsoft株爆上げする?

コメント一覧

タイトルとURLをコピーしました