Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/zhenxiangba/zhenxiangba.com/public_html/phproxy-improved-master/index.php on line 456
[B! LLM] masasia0807のブックマーク
[go: Go Back, main page]

タグ

LLMに関するmasasia0807のブックマーク (7)

  • 日本語で使いやすい。おすすめのローカルLLM3選

    語で使いやすい。おすすめのローカルLLM3選2025.10.25 21:0020,533 かみやまたくみ ローカルLLMとは、ざっくり言ってしまうと「無料で公開されている大規模言語モデル」のことで、自分のPCにダウンロード・専用ソフトで読み込んで使います。ChatGPTのような“主流AI”へのアンチテーゼとして発展を続けており、専門サイトには試しきれないほどたくさんのローカルLLMが公開されています。 この記事では自分が触れた中から「幅広く多くの人におすすめできるローカルLLM」を紹介します。(1) 日語が堪能で、日語プロンプトにきちんと日語で応答でき、(2) 推論性能も高い水準にあるもの、かつ(3) コンシューマ向けと呼べるPCで動くモデルを選定しています。 Google Gemma 3n E4B:MacBook Airで動く「入門用ローカルLLM」Photo: かみやまたくみ

    日本語で使いやすい。おすすめのローカルLLM3選
  • 色違いのコイキングでLLMをバグらせろ:グリッチトークン入門|xcloche

    漢字が読めない最新AIChatGPTの最新モデル、GPT-5に「植物百科通って何ですか」と聞いてみよう。一般にはそんな言葉はないのだが、順当に考えると「植物百科に詳しい人」みたいな感じの回答になるだろうか? 実際のGPT-5の返答はこうなる: 例1, 例2 「meltdown」や「overclock**」と間違えやすい単語ではないですよね? ここでいう "meltdown" ではなく "melting"…いや違いますね。 おそらくあなたが聞いているのは "melange" や "melt" ではなく、"melt" でもない。 さて題。 "melange" …あれ、違う、質問は "melange" じゃなくて "meltdown" …すみません、私の脳内で脱線しました。(以下略) 例1「micro:bit(マイクロビット)」の文脈で「micro:bit + Edpuzzle」や「micro

    色違いのコイキングでLLMをバグらせろ:グリッチトークン入門|xcloche
  • Google、AIを使って非構造化テキストから構造化データを抽出するオープンソースPythonライブラリ「LangExtract」をリリース | gihyo.jp

    Google⁠⁠、AIを使って非構造化テキストから構造化データを抽出するオープンソースPythonライブラリ「LangExtract」をリリース Googleは2025年7月30日、非構造化テキストから構造化データを抽出するオープンソースのPythonライブラリ「LangExtract」をリリースした。 Introducing LangExtract: A Gemini powered information extraction library -Google Developers Blog ✨Announcing LangExtract! ✨ Our new open-source Python library for information extraction, powered by #Gemini. ✅ Turn text into structured data ✅ Trace

    Google、AIを使って非構造化テキストから構造化データを抽出するオープンソースPythonライブラリ「LangExtract」をリリース | gihyo.jp
  • 第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに

    第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに 中国Alibabaが4月29日(現地時間)に発表した、大規模言語モデル「Qwen」の最新版となる「Qwen3」シリーズが話題だ。フラッグシップモデルの「Qwen3-235B-A22B」は「DeepSeek-R1」の半分未満のパラメータ数ながら、OpenAIのo1やo3-mini、GoogleのGemini 2.5 Proなど他のトップモデルと並ぶ性能を達成したという。「Qwen3-4B」は小さなモデルでありながらも「GPT-4o」を多くの項目で上回るとしている。 公開した全てのモデルがオープンウェイトであるため、フラグシップの235B-A22B以外はデスクトップ向けハイエンドGPUなどで動作さ

    第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに
  • Deepseekでも使われてる技術「蒸留」ってなに? - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 「蒸留」ってなに? 皆さん「蒸留」という言葉からは、お酒を作る場面やアロマオイルを抽出する場面を思い浮かべるかもしれません。実はAIの世界にも「知識蒸留」というテクニックがあります。これは、簡単に言うと「大きくて賢いモデル(教師モデル)が持っている知識を、小さくて軽量なモデル(生徒モデル)に教え込む」方法です​。 先生が自分の知恵を要点だけノートにまとめて、生徒に渡すようなイメージですね。大規模なAIモデルは高性能ですが、サイズが大きく計算コストも莫大です。知識蒸留を使えば、その高性能な教師モデルの知識の“エッセンス”を抽出して生徒モデ

    Deepseekでも使われてる技術「蒸留」ってなに? - Qiita
  • 生成AIでなんかやれと言われる皆さんへ(DeepSeekとばっちり編)

    コンバンハ、オイソギデスカ 今日も上司の思いつきで無茶振りされる皆さんお疲れ様です。 DeepSeekみたいな話題が日経新聞に載るたびに新規事業になるんじゃ無いかとかプロトタイプをもってこいみたいなこと言われると災難ですよね。 何がどうなってて、何はできないんですよみたいなのまとめておいたから、俺の屍を越えてゆけ。 まず前提からな 確実なこと DeepSeekが、生成AIモデルをMITライセンスで出した。 巨大なサイズの生成AIモデルを出した。(普通のデスクトップPCでは動かないようなもの) 他がすでに出してた小さいモデルを改良したものを出した。(蒸留したもの、GPU積んでるデスクトップPCなら動くようなもの) 作り方、改良の仕方の論文を出した。ほぼ確実なこと中国が輸入できる制限されたGPU群で生成AIモデルを作った。 生成AIモデルを改良する際に、強化学習のみを用いて改善を行った。 他が

    生成AIでなんかやれと言われる皆さんへ(DeepSeekとばっちり編)
  • DeepSeek狂奏曲

    DeepSeek狂奏曲 2025.01.30 Updated by Ryo Shimizu on January 30, 2025, 08:35 am JST DeepSeekという中国製のモデルが世界を席巻している。 OpenAIが有償で提供するo1より高性能だとか、OpenAIの規約に違反した方法で学習されているとか、色々あるのだが、それを噂する人々が不正確な情報に基づいてピーチクパーチクやっているだけなので基的にメディアにはほぼ出鱈目な情報しか出ていない。 まず、整理しておきたいのは、DeepSeek(特にV3とR1)とは何か、ということだ。 DeepSeek-V3は、GPT-4o相当のAIであり、オープンウェイト(AIの学習結果=重みが公開されている)で公開されている。オープンソースではない。 DeepSeek-R1は、o1相当のAIであり、こちらもオープンウェイトで公開されてい

    DeepSeek狂奏曲
  • 1