ありがとうございます。普通に公開されてましたねw
売れるネットショップの教科書さんがAIチャットたちより正確だった。グーグル検索がなくなる日はまだまだ遠い気がしてきました。
検索ボタンを押してから質問すると、きちんと最新情報を参照して質問に答えてもらえますね。
検索なし(リースニングモードあり)
検索あり(リースニングモードなし)
しつこく、無料版のGPTのバージョンについて聞いていたら、かたくなに自分がGPT3.5であることを主張する回答の下に、実はGPT4oであることが、システムの自動表示機能かなにかのせいでバレてしまったみたいな感じの画像がとれたのでそれも貼っておきます。
o3-miniは数学、科学の分野でより正確な回答を提供……とあったので気になって今テストしてみた。
いつものように、『平面上の4点から等距離にある平面の数を答えよ。ただし、その4点全てが含まれる平面は存在しないものとする』というプロンプト。
追記
空間上の四点、ですわ
こんな時間まで起きてるから大して良くねえ頭がさらにパーになってる(‘◇’)
追記2
空間内の四点
もうこれ僕は要らねえな、AIでいいよ。Komoriは廃棄処分にしようぜ。
つい数日前より良くなった。しかし半解という感じ。
20点満点だと10点くらいかな。
4点によるTetrahedronが形成されるのを自明としているけれど、こういうところもちょっと数学的には頼りない感じだね。いや、形成されるんだけれどもね。
Tetrahedronの面に対する頂点の中点を通る平面というのに気づけないところをみると、人間のようには考えていないねやっぱり。
3点減点して7点ってとこか。
数学的能力を売りにしているけれど、いったい顧客はどんな数学的問題に使ってるんだろう???こんな体たらくでは高校生用の問題さえ解けないでしょうに。
と思って調べてみるとこんなのがあった。
ああ……つまり、実務とは関係ない簡単な数学力テストを用意して点数を嵩増ししてるわけか今のAI開発者たちは。ひでえなw
そんなのが評価されてしまうってことは、やっぱり開発に金を出す人たちが数学を知らんらしい。とんでもねえ世界だよ。クソ
でもこんな超絶難問集でも2%も解けるのか。むしろそれはすごいな。正直に発表すればいいのに。
得意分野はなんなんだろう。やっぱり代数とか数論?
僕が試したプロンプトからすると幾何はダメそうだな。
カスタマイズと非カスタマイズを同時表示してくれると偏りが出ずに一般的な見解も知れていい気がしますね。後で動画みてみます。
DEEPSEEKの衝撃はローカルで動かせてCUDAを使ってないらしいですよね。
インパクトがでかそうです。
最後の堤氏の解説と中国の教育の部分以外はみる価値無いかも
これ便利ですね。有料なのは残念。
まあ将来的に検索とAIは統合されていくんでしょうね。GOOGLE最近検索は酷いですよ。旅行情報とかもうめちゃくちゃで怪しいアフィリサイトがトップの方に来たりもします。
次のAI検索はどこに行き着くんでしょうね。
検索ビジネスの収入源が広告なので、どうしても、購買意欲をわきたたせようとするノイズ情報が入りやすくなるんですよね。といっても、課金してまで、検索ツールを使いたい人っていまのところあまりいないと思うので、自然な形でAIが必要な時期に必要な商品やサービスを本人のデータを元に適正な価格でおすすめするみたいな感じに広告ビジネスのやり方も変わってくるようなきがしますね。
いまのところAIチャットが乱立していて、ユーザーの個人情報をひとつのデータベースで管理するみたいなことができてないんですけど、そのうちユニバーサルなしくみで個人情報自体はユーザー本人が管理して、お好みのAIチャットにデータを提供することで、自分にカスタマイズされたAIエージェントを一人複数台持つ時代になりそうな予感がします。
アメリカが半導体関連の機材やら人材やらを輸出規制していなかったら、おそらく中国がアメリカの半導体市場を席巻して、AIも中国一強になってたかもしれませんね。(米国の規制によって、自国で開発をせざるを得ず、その結果deepseekのような画期的な発明品も登場したらしいのですが、やはり、アジア人は0から1より1から100にするのが得意なので、規制がなければ、中国が米国に追いつくのも10年くらい早まってそうな気がします。)
個人的には、中共という政治体制は好きではないのですが、中国のポテンシャルには期待しているので、米国と中国が競争しあって、良いものをより安く世界中に提供してもらうことで、我々の生活が豊かになればいいなぁと思ったりしました。
個人がローカルPCでdeepseekを動かしたい場合、1.5Bか7Bあたりが限界みたいですね。(といっても、それ以上の性能をどう扱えばいいのか、わからないので、宝の持ち腐れになりそうですしw)
DeepSeek-R1の小型モデル(いわゆる「蒸留モデル」)は、元のフルモデル(671Bパラメータ)に比べて大幅に軽量化されており、個人用PCでも動作可能な設計となっています。ただし、モデルのサイズや量子化の設定によって必要なハードウェアスペックが異なります。以下に、各小型モデルに必要な推奨スペックをまとめます。
DeepSeek-R1の小型モデルと推奨スペック
モデル名 | パラメータ数 | VRAM(GPUメモリ) | 推奨GPU | RAM(メインメモリ) | 備考 |
---|---|---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 約3.9GB | NVIDIA RTX 3060 12GB以上 | 16GB以上 | 比較的軽量で、エントリーレベルのGPUでも動作可能。CPUでも実行可能だが遅い。 |
DeepSeek-R1-Distill-Qwen-7B | 7B | 約18GB | NVIDIA RTX 4090 24GB以上 | 32GB以上 | 高性能GPUが必要。量子化を利用すればVRAM要件を下げられる。 |
DeepSeek-R1-Distill-Llama-8B | 8B | 約21GB | NVIDIA RTX 4090 24GB以上 | 32GB以上 | 7Bモデルと同様の要件。 |
DeepSeek-R1-Distill-Qwen-14B | 14B | 約36GB | NVIDIA RTX 4090 x2(デュアルGPU) | 64GB以上 | マルチGPU環境が推奨される。 |
DeepSeek-R1-Distill-Qwen-32B | 32B | 約82GB | NVIDIA RTX 4090 x4(4枚構成) | 128GB以上 | 非常に高いハードウェア要件。 |
DeepSeek-R1-Distill-Llama-70B | 70B | 約181GB | NVIDIA A100 80GB x3以上 | 256GB以上 | 研究機関や企業向けのスペック。個人利用には現実的ではない。 |
補足情報
-
量子化の活用
量子化(例:Q4、Q8など)を利用することで、VRAMやRAMの要件を大幅に削減できます。ただし、量子化による性能劣化が発生する場合があります[3][9][14]。 -
CPUのみでの実行
小型モデル(特に1.5Bや7B)は、GPUがない環境でもCPUで動作可能ですが、推論速度が大幅に低下します。最低でも16GB以上のRAMが必要です[22][25]。 -
ストレージ要件
モデルの重みファイルを保存するために、少なくとも140GB以上のディスク容量が必要です(モデルサイズによる)[22]。 -
用途に応じた選択
個人PCでの利用を考える場合、1.5Bや7Bモデルが現実的な選択肢です。これらは、比較的軽量でありながら、十分な性能を発揮します[9][10][23]。
まとめ
DeepSeek-R1の小型モデルは、用途やハードウェア環境に応じて選択可能です。エントリーレベルのGPUを持つPCでは1.5Bや7Bモデルが適しており、高性能なGPUを持つ環境ではより大きなモデルを試すことができます。量子化やマルチGPU構成を活用することで、さらに柔軟な運用が可能です。
GPUの量子化(Quantization)は、ニューラルネットワークなどのモデルを効率化するために、浮動小数点数(通常は32ビット)で表現されているモデルのパラメータ(重みやバイアスなど)や計算を、より少ないビット数で表現する技術です。これにより、計算量やメモリ使用量が減り、モデルがより速く動作するようになります。
計算量減らす処理のことを量子化って言うんですね。
NVIDIA RTX 4090 24GB以上か、何だかんだで素人レベルでローカルで動かすのは結構マシンスペックいりそうですね。