ひきこもり村AI研究部

ありがとうございます。普通に公開されてましたねw
売れるネットショップの教科書さんがAIチャットたちより正確だった。グーグル検索がなくなる日はまだまだ遠い気がしてきました。

「いいね!」 1

もしかして、と思ったら案の定だった

日本語化は中国人か華僑がやってますね。アメリカしぐさだ。
ゲームの翻訳からAIの翻訳まで、日本語化はぜんぶおかしいんすよねあの国。

「いいね!」 1

検索ボタンを押してから質問すると、きちんと最新情報を参照して質問に答えてもらえますね。

検索なし(リースニングモードあり)

検索あり(リースニングモードなし)

しつこく、無料版のGPTのバージョンについて聞いていたら、かたくなに自分がGPT3.5であることを主張する回答の下に、実はGPT4oであることが、システムの自動表示機能かなにかのせいでバレてしまったみたいな感じの画像がとれたのでそれも貼っておきます。

「いいね!」 1

o3-miniは数学、科学の分野でより正確な回答を提供……とあったので気になって今テストしてみた。
いつものように、『平面上の4点から等距離にある平面の数を答えよ。ただし、その4点全てが含まれる平面は存在しないものとする』というプロンプト。

追記
空間上の四点、ですわ:innocent:
こんな時間まで起きてるから大して良くねえ頭がさらにパーになってる(‘◇’)

追記2
空間内の四点
もうこれ僕は要らねえな、AIでいいよ。Komoriは廃棄処分にしようぜ。

つい数日前より良くなった。しかし半解という感じ。
20点満点だと10点くらいかな。
4点によるTetrahedronが形成されるのを自明としているけれど、こういうところもちょっと数学的には頼りない感じだね。いや、形成されるんだけれどもね。
Tetrahedronの面に対する頂点の中点を通る平面というのに気づけないところをみると、人間のようには考えていないねやっぱり。
3点減点して7点ってとこか。

数学的能力を売りにしているけれど、いったい顧客はどんな数学的問題に使ってるんだろう???こんな体たらくでは高校生用の問題さえ解けないでしょうに。

と思って調べてみるとこんなのがあった。

ああ……つまり、実務とは関係ない簡単な数学力テストを用意して点数を嵩増ししてるわけか今のAI開発者たちは。ひでえなw
そんなのが評価されてしまうってことは、やっぱり開発に金を出す人たちが数学を知らんらしい。とんでもねえ世界だよ。クソ:innocent:

でもこんな超絶難問集でも2%も解けるのか。むしろそれはすごいな。正直に発表すればいいのに。
得意分野はなんなんだろう。やっぱり代数とか数論?
僕が試したプロンプトからすると幾何はダメそうだな。

「いいね!」 1

カスタマイズと非カスタマイズを同時表示してくれると偏りが出ずに一般的な見解も知れていい気がしますね。後で動画みてみます。
DEEPSEEKの衝撃はローカルで動かせてCUDAを使ってないらしいですよね。
インパクトがでかそうです。

「いいね!」 1

最後の堤氏の解説と中国の教育の部分以外はみる価値無いかも

「いいね!」 1

image

これ便利ですね。有料なのは残念。

「いいね!」 1

まあ将来的に検索とAIは統合されていくんでしょうね。GOOGLE最近検索は酷いですよ。旅行情報とかもうめちゃくちゃで怪しいアフィリサイトがトップの方に来たりもします。
次のAI検索はどこに行き着くんでしょうね。

「いいね!」 2

AI用の機器を買おうとしてるんですけど
消費電力だとMAC MINIがRTX積んだグラボよりコスパいいっぽいですね。
何にしようかな。
サブ機にしてローカルでDEEPSEEK動かしてみます。

「いいね!」 1
「いいね!」 1

検索ビジネスの収入源が広告なので、どうしても、購買意欲をわきたたせようとするノイズ情報が入りやすくなるんですよね。といっても、課金してまで、検索ツールを使いたい人っていまのところあまりいないと思うので、自然な形でAIが必要な時期に必要な商品やサービスを本人のデータを元に適正な価格でおすすめするみたいな感じに広告ビジネスのやり方も変わってくるようなきがしますね。

いまのところAIチャットが乱立していて、ユーザーの個人情報をひとつのデータベースで管理するみたいなことができてないんですけど、そのうちユニバーサルなしくみで個人情報自体はユーザー本人が管理して、お好みのAIチャットにデータを提供することで、自分にカスタマイズされたAIエージェントを一人複数台持つ時代になりそうな予感がします。

アメリカが半導体関連の機材やら人材やらを輸出規制していなかったら、おそらく中国がアメリカの半導体市場を席巻して、AIも中国一強になってたかもしれませんね。(米国の規制によって、自国で開発をせざるを得ず、その結果deepseekのような画期的な発明品も登場したらしいのですが、やはり、アジア人は0から1より1から100にするのが得意なので、規制がなければ、中国が米国に追いつくのも10年くらい早まってそうな気がします。)

個人的には、中共という政治体制は好きではないのですが、中国のポテンシャルには期待しているので、米国と中国が競争しあって、良いものをより安く世界中に提供してもらうことで、我々の生活が豊かになればいいなぁと思ったりしました。

個人がローカルPCでdeepseekを動かしたい場合、1.5Bか7Bあたりが限界みたいですね。(といっても、それ以上の性能をどう扱えばいいのか、わからないので、宝の持ち腐れになりそうですしw)

DeepSeek-R1の小型モデル(いわゆる「蒸留モデル」)は、元のフルモデル(671Bパラメータ)に比べて大幅に軽量化されており、個人用PCでも動作可能な設計となっています。ただし、モデルのサイズや量子化の設定によって必要なハードウェアスペックが異なります。以下に、各小型モデルに必要な推奨スペックをまとめます。

DeepSeek-R1の小型モデルと推奨スペック

モデル名 パラメータ数 VRAM(GPUメモリ) 推奨GPU RAM(メインメモリ) 備考
DeepSeek-R1-Distill-Qwen-1.5B 1.5B 約3.9GB NVIDIA RTX 3060 12GB以上 16GB以上 比較的軽量で、エントリーレベルのGPUでも動作可能。CPUでも実行可能だが遅い。
DeepSeek-R1-Distill-Qwen-7B 7B 約18GB NVIDIA RTX 4090 24GB以上 32GB以上 高性能GPUが必要。量子化を利用すればVRAM要件を下げられる。
DeepSeek-R1-Distill-Llama-8B 8B 約21GB NVIDIA RTX 4090 24GB以上 32GB以上 7Bモデルと同様の要件。
DeepSeek-R1-Distill-Qwen-14B 14B 約36GB NVIDIA RTX 4090 x2(デュアルGPU) 64GB以上 マルチGPU環境が推奨される。
DeepSeek-R1-Distill-Qwen-32B 32B 約82GB NVIDIA RTX 4090 x4(4枚構成) 128GB以上 非常に高いハードウェア要件。
DeepSeek-R1-Distill-Llama-70B 70B 約181GB NVIDIA A100 80GB x3以上 256GB以上 研究機関や企業向けのスペック。個人利用には現実的ではない。

補足情報

  1. 量子化の活用
    量子化(例:Q4、Q8など)を利用することで、VRAMやRAMの要件を大幅に削減できます。ただし、量子化による性能劣化が発生する場合があります[3][9][14]。

  2. CPUのみでの実行
    小型モデル(特に1.5Bや7B)は、GPUがない環境でもCPUで動作可能ですが、推論速度が大幅に低下します。最低でも16GB以上のRAMが必要です[22][25]。

  3. ストレージ要件
    モデルの重みファイルを保存するために、少なくとも140GB以上のディスク容量が必要です(モデルサイズによる)[22]。

  4. 用途に応じた選択
    個人PCでの利用を考える場合、1.5Bや7Bモデルが現実的な選択肢です。これらは、比較的軽量でありながら、十分な性能を発揮します[9][10][23]。

まとめ

DeepSeek-R1の小型モデルは、用途やハードウェア環境に応じて選択可能です。エントリーレベルのGPUを持つPCでは1.5Bや7Bモデルが適しており、高性能なGPUを持つ環境ではより大きなモデルを試すことができます。量子化やマルチGPU構成を活用することで、さらに柔軟な運用が可能です。

「いいね!」 1

GPUの量子化(Quantization)は、ニューラルネットワークなどのモデルを効率化するために、浮動小数点数(通常は32ビット)で表現されているモデルのパラメータ(重みやバイアスなど)や計算を、より少ないビット数で表現する技術です。これにより、計算量やメモリ使用量が減り、モデルがより速く動作するようになります。

計算量減らす処理のことを量子化って言うんですね。

NVIDIA RTX 4090 24GB以上か、何だかんだで素人レベルでローカルで動かすのは結構マシンスペックいりそうですね。

「いいね!」 1