Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/zhenxiangba/zhenxiangba.com/public_html/phproxy-improved-master/index.php on line 456
[B! LLM] kisiritooruのブックマーク
[go: Go Back, main page]

タグ

LLMに関するkisiritooruのブックマーク (234)

  • ChatGPTを“おだて役”から“辛口参謀”に変える! SNSで話題の「神プロンプト」10選 - Smart Watch Life|日本初のスマートウォッチ専門メディア

    ChatGPTを使っていて「なんだか優しすぎる」「もっと音で答えてほしい」と感じたことはありませんか? 今、海外SNSでは、そんな“やさしすぎるAI”を「気モード」に変えるためのプロンプト(指示文)が話題になっています。 RedditやX(旧Twitter)では、「ChatGPTを辛口のコーチに変える」「Google社員のように考えさせる」など、AIのキャラクターを根から変える“魔法の言葉”が次々とシェアされています。 この記事では、その中でも特に人気の高い10個のプロンプトを厳選して紹介します。 1. 「優しさフィルター」を外すプロンプト SNSで最も話題になったのが、Redditユーザー「Wasabi_Open」氏のプロンプト。 ChatGPTの“なんでも褒めてくる”性格を一瞬で変える強力な一文です。 From now on, stop being agreeable and

    ChatGPTを“おだて役”から“辛口参謀”に変える! SNSで話題の「神プロンプト」10選 - Smart Watch Life|日本初のスマートウォッチ専門メディア
  • AIを賢く動かすのは「指示力」ではなく「文脈設計力」

    プロジェクトルール(AGENTS.md,CLAUDE.md,copilot-instructions.mdなど)、MCPツール定義(使われなくても消費される)、指示・会話履歴...。これらがコンテキストウィンドウを圧迫していきます。 AIに「何を見せるか」を設計する 確率を味方につける LLMは確率的に次の単語を予測しています。つまり、どれだけ賢いAIでも「当たりに向かうよう仕向けてあげる」ことが重要です。 その確率の精度を高める方法が、AIに見せる情報(=コンテキスト)を設計することです。適切な情報を適切な配置で見せれば、より正確な予測ができます。 しかし、現代のLLMには大きな制約があります。コンテキストウィンドウのサイズが理想的な大きさに達しておらず、実用的に不足する場面がよくあります。 制約の中で、いかに精度を高めるか。それがコンテキストエンジニアリングの質です。 「足し算」から

    AIを賢く動かすのは「指示力」ではなく「文脈設計力」
  • LLMのキモい算術 - ジョイジョイジョイ

    LLMは「226-68=」のようなプロンプトを与えると「158」と計算してくれますが、この計算は我々が想像するよりも奇妙な方法で行っていることを紹介します [Nikankin+ICLR 2025]。 まずは前提条件を確認します。思考の連鎖は使わず、「226-68=」のようなプロンプトに対して「158」のように答えを直接出力する場合を考えます。 一例として Llama3-8B を考えます。Llama3 のトークナイザは 0 から 1000 までの数に 1 つのトークンを割り当てるので、「226-68=」を入力すると、次のトークン「158」が「0」「1」...「157」「158」「159」...「1000」などのトークンの中から、最も確率が高いものとして選ばれます。 ヤニフ・ニカンキンらの発見 [Nikankin+ICLR 2025] は、Llama3-8B は答えや入力についての粗い条件を多

    LLMのキモい算術 - ジョイジョイジョイ
  • 統一的プロンプトの終焉:もはやllmモデルに互換性はありません

    統一的プロンプトの終焉:もはやllmモデルに互換性はありませんWhy LLM models are no longer interchangeableの意訳です。 開発者やプロダクトビルダーにとって、この数年間はLLMがアプリケーション開発を導いてきました。プロダクトを改善したいなら、最新のLLMを利用すれば良い。ただモデルを切り替えるだけで、ツールの性能を一段階引き上げられるのです。 しかし、その時代は終わりました。AnthropicのClaude Sonnet 4.5やOpenAIのGPT-5-Codexのような新しいモデルは、根的に異なる方向へ分岐... 先日6,000万ドルを調達したので…おもしろ動画を作りましたWe raised $60M last week… so we made a funny filmの意訳です。 先日、CodeRabbitはシリーズBで6,000万ドルの

    統一的プロンプトの終焉:もはやllmモデルに互換性はありません
  • 脳に着想を得たAIモデル「BDH」がTransformerの限界を超えるかもしれない | XenoSpectrum

    AIスタートアップPathwayが、人間の脳神経回路に着想を得た新アーキテクチャ「Baby Dragon Hatchling(BDH)」を発表した。現在の主流であるTransformerモデルの限界を打破する可能性を秘め、より解釈可能で自律的なAIへの道を拓くものとして、業界に静かな衝撃が走っている。 Transformer時代の黄昏と新たな地平線 近年のAIの進化は、OpenAIのGPTシリーズに代表されるTransformerアーキテクチャによって牽引されてきた。膨大なデータと計算資源を投入する「スケーリング則」により、その性能は飛躍的に向上した。しかし、その輝かしい成功の裏で、いくつかの根深い課題が顕在化しつつある。 一つは「ブラックボックス問題」だ。モデルがなぜ特定の結論に至ったのか、その思考プロセスを人間が理解することは極めて困難である。もう一つは「時間経過に伴う汎化能力の欠如」

    脳に着想を得たAIモデル「BDH」がTransformerの限界を超えるかもしれない | XenoSpectrum
  • 「法務でAIがどこまで使えるか」を測るデータセット、デジタル庁が公開

    デジタル庁は10月9日までに、AIが法務でどれほど使えるかを測る「日の法令に関する多肢選択式QAデータセット」を公開した。同データセットは、法令分野に関する4択問題と回答、問題の背景となる法令の抜粋などを含む。行政機関や企業の法務部門でのAI導入に役立てたい考えだ。 同データセットは、複数の大規模言語モデル(LLM)により作成・検証したもの。含まれる問題が選択式のため、AIの回答を自動で採点・評価しやすいのが特徴だ。政府が持つデータのAI開発での活用を目指し、同庁が実施した「政府等保有データのAI学習データへの変換にかかる調査研究」で利用した。 同データセットの主な利用方法として、AIが法務でどれほど使えるかを測る評価データを想定する。また、同庁のテストによると、同データセットをPreferred NetworksのLLM「PLaMo-100B」の継続事前学習と指示学習に利用することで、

    「法務でAIがどこまで使えるか」を測るデータセット、デジタル庁が公開
  • 95%以上をLLMが実装。『みらいまる見え政治資金』を45日で完成させた、AIネイティブな開発手法についてご紹介|Jun Ito

    はじめまして。チームみらい 永田町エンジニアチームの伊藤と申します!エンジニアチームではエディと呼ばれています。 どーやって作ったの?先日チームみらいでは、政治資金の流れを透明性を持って公開するプラットフォーム「みらい まる見え政治資金」をリリース、ソースコードも OSS として公開し、サービス開始から約2日で20万PVと、大きな反響をいただきました。 アプリケーションの設計や技術的な詳細については、上記の記事にまとめているので、ぜひ読んでみてください! ところで、こちらのアプリ、実は95%以上のコードをLLM(コーディングエージェント)が実装しているんです。 自分でコーディングの手を動かさない開発手法を確立できたことで、15,000行程度の中規模アプリケーションを、開発開始から約45日でリリースすることが可能になったと思っています。(なお私は別件でフルタイムの業があり、パートタイムとし

    95%以上をLLMが実装。『みらいまる見え政治資金』を45日で完成させた、AIネイティブな開発手法についてご紹介|Jun Ito
  • “今いちばん使うAI”は国産ローカルLLM。「PLaMo翻訳」で言語の壁が粉々に

    “今いちばん使うAI”は国産ローカルLLM。「PLaMo翻訳」で言語の壁が粉々に2025.10.03 13:0037,210 かみやまたくみ 最優のAIのひとつだと思います。 英語から日語への翻訳に特化したローカルLLM「PLaMo翻訳(plamo-2-translate)」。バケモノじみた翻訳能力は「便利」の次元を越えており、気づいたらいちばん使うAIに。見える世界も変わっていました。 長い外国語の文章を1発で日語にplamo-2-translateはLM Studioなどで動かすローカルLLM、その名の通り「翻訳専門のAI」です。年商要件はありますが、企業・個人でも無償で利用できます。(執筆時点、変更の可能性もありますので、ご利用のタイミングで必ずご確認ください) Photo: かみやまたくみ「運用がめちゃ楽」なのがまず大きな特徴です。なんとプロンプト不要、いちいち「あなたは優秀な

    “今いちばん使うAI”は国産ローカルLLM。「PLaMo翻訳」で言語の壁が粉々に
  • AIの仕組みについて漠然と理解している人のために

    AIって結局は統計だろ?」 ネットでこういった言葉を見かける度、正直モヤモヤしている。 確かに統計的な処理がAIの根幹にあるのは間違いない。 データを集め、確率を計算し、そこから最適解を選び出す。そういう構造があるのは事実だ。だから「まったく違う」と言い切るのも嘘になる。 だが、それを「AIって結局は統計だろ?」なんて一言で片づけるのは、あまりに横暴だ。 統計そのものを動かす理論や数理、そこに積み上げられたアルゴリズムの厚みを無視してしまっているからだ。 たとえば俺が気で勉強したときにぶん殴られたのは統計の延長で片付けられないようなもっと複雑でもっと美しい構造だった。 だから、この言葉にモヤモヤするのは「半分は当たっているけど、半分は外している」から。 AIは統計でありながら、統計に還元できないものでもある。 その両義性を理解せずに「統計だろ?」で済ませるのは、ピアノの音を聴いて「ただ

    AIの仕組みについて漠然と理解している人のために
  • Claude Codeが刷新した開発現場と、人間に残された仕事

    Previous slideNext slideToggle fullscreenOpen presenter view 鹿野 壮 Claude Codeにタスク丸投げおじさん(自称) @tonkotsuboy_com 日の構成 Claude Codeが刷新した開発現場 手数の増加を支えるClaude Codeの機能 人間に残された仕事 まとめ Claude Codeが刷新した開発現場 リリース数の爆増 開発速度が明らかに向上した 2025年5月頃、Claude Codeを全社導入 Claude Codeの全社導入後、 チーム内のPRリリース数は約3倍に増加 Devin、Cursor等もリリースと同時に導入したが、 比べ物にならない上昇幅 コードが民主化された コードの民主化: 職能を超えた開発が日常に 会社全体では、職能を問わず全員がClaude Codeをはじめとする AIエージェン

    Claude Codeが刷新した開発現場と、人間に残された仕事
  • AIが作りAIがプレイすれば「やらずにすむゲーム」の完成である - ABAの日誌

    「やらずにすむゲームはないか?」は漫画「はまり道」の名セリフである。ゲームはやりたいのだが、やるのがおっくうなので、やらなくていい安心なゲームが欲しいということだ。よく分かる。 今の時代、おっくうなことはAIにまかせよう。もっと言えばゲームを作るのもおっくうなので、AIが勝手に作ってAIが勝手にプレイすればいいのでは? それを実現するのがこのNarrative Engineです。AIRPGのシナリオを勝手に作り、GM(ゲームマスター)やプレイヤーとして勝手にプレイし、勝手にクリアします。 まあそれだと何がプレイされたのかが分からないので、 そのリプレイをブラウザで見られる ようにしました。 小説風のナラティブに書き起こしたもの と、それに対応する プレイログ が閲覧できるので、気が向いたらゲームのプレイ内容を知ることもできます。 ここで行っていることは、TRPG(テーブルトークRPG)を

    AIが作りAIがプレイすれば「やらずにすむゲーム」の完成である - ABAの日誌
  • さくらインターネット、生成AI向け推論API基盤「さくらのAI Engine」を一般提供開始 | さくらインターネット

    デジタルインフラサービスを提供するさくらインターネット株式会社(社:大阪大阪市、代表取締役社長:田中 邦裕、以下「さくらインターネット」)は、生成AI向け推論API基盤「さくらのAI Engine(以下、サービス)」を2025年9月24日(水)より一般提供を開始します。 これにより、「さくらのクラウド」のコントロールパネルからサービスを利用でき、大規模言語モデル(LLM)をはじめとする基盤モデルを、API経由でアプリケーションへ手軽に組み込むことが可能となります。 生成AIを実業務やサービスで利用する「推論※1」需要の高まりを受け、企業や地方自治体などが自社サービスに会話生成や音声認識、および検索拡張生成(以下、RAG※2)に対応するベクトルデータベースを最小限の開発作業で実装できる、推論向けAPI基盤の開発に至りました。 また、サービスの提供開始にあわせて、フルマネージドの生成

    さくらインターネット、生成AI向け推論API基盤「さくらのAI Engine」を一般提供開始 | さくらインターネット
  • 元OpenAIの研究者ら、AIの応答が毎回違う理由をついに解明 | XenoSpectrum

    OpenAIの研究者らが設立したThinking Machines Labが、AIの応答が毎回揺らぐ根原因を解明した。それによれば、犯人は長年信じられてきたGPUの並列処理ではなく、サーバー負荷に起因する「バッチ不変性の欠如」だという。 シリコンバレーを揺るがす新星、AIの「再現性」にメス 2025年9月10日、元OpenAIのCTO、Mira Murati氏が率い、20億ドルものシード資金を調達して評価額120億ドルに達したスタートアップ「Thinking Machines Lab」がひっそりと公開した1の論文の内容は、世界に衝撃を与えるに足るものだった。 タイトルは「Defeating Nondeterminism in LLM Inference(LLM推論における非決定性の打破)」。 執筆者は、同社の研究者であるHorace He氏。この論文が持つ意味は、単なる技術報告に留ま

    元OpenAIの研究者ら、AIの応答が毎回違う理由をついに解明 | XenoSpectrum
  • AIと私たちの学習の変化を考える - Claude Codeの学習モードを例に

    生成AIの登場は私たちの仕事の進め方に大きな変化をもたらしました。より多くの仕事をこなせるようになった一方で、「自分の頭で考える」時間が減り、思考力や問題解決能力の低下が懸念されています。このような課題に対応するため、多くのAIサービスは、単に答えを提供するのではなく、ユーザー自身の思考を促す「学習モー…

    AIと私たちの学習の変化を考える - Claude Codeの学習モードを例に
  • 「LM Studio」ではじめるローカルLLM。“ガチ無料AI”を徹底解説

    「LM Studio」ではじめるローカルLLM。“ガチ無料AI”を徹底解説2025.09.07 08:0035,939 かみやまたくみ 自分のパソコン上で無料で動かせるAI「ローカルLLM」が最近盛り上がりを見せています。 高性能化が進んでおり、日語でも使いやすいモデルが登場しています。昨今話題の「gpt-oss」もそんなローカルLLMのひとつで、自分は「わりとこれでよくない?」と感じました。軽量なモデルを選べば、MacBook Airでも試せます。 この記事では、専用アプリ「LM Studio」を使ってローカルLLMを使う方法を紹介します。比較的高性能ながら多くのパソコンで動作する「Google Gemma 3n E4B」を例に、導入方法からチャットを始めるまで──「とにかく動かす手順」をまとめています。 ローカルLLMとはローカルLLMとは大規模言語モデルを自分のパソコン上で動かすこ

    「LM Studio」ではじめるローカルLLM。“ガチ無料AI”を徹底解説
  • OpenAI、LLMの「幻覚」についての論文公開 「評価方法の抜本的見直し」を提言

    OpenAIは9月5日(現地時間)、LLMのいわゆる「幻覚」(ハルシネーション)についての論文を公開した。この論文は、ChatGPTやGPT-4oといったLLMが、なぜもっともらしく聞こえるけれども間違った情報を自信満々に生成してしまうのか、その根的な理由を解き明かそうとするものだ。 例えば、論文の著者であるアダム・タウマン・カライ氏の誕生日をある最先端のオープンソース言語モデルに尋ねたところ、「03-07」「15-06」「01-01」といった3つの異なる、いずれも間違った日付を自信満々に回答したことが示されている。 OpenAIは、最新モデル(GPT-5を指すとみられる)では幻覚の発生率は大幅に減少しているとしながらも、依然としてこの問題が残っていることを認めており、さらに削減していくために努力を続けているとしている。 論文では、言語モデルの幻覚は大きく分けて2つの段階で発生し、改善

    OpenAI、LLMの「幻覚」についての論文公開 「評価方法の抜本的見直し」を提言
  • 【初心者向け】ローカルLLMの色々な動かし方まとめ

    生成AIなんでも展示会 Vol.4 LT資料

    【初心者向け】ローカルLLMの色々な動かし方まとめ
  • スイス独自の完全オープンソースLLM「Apertus」がリリースされる、1000言語以上にわたる15兆トークンで学習&透明性とデジタル主権を重視

    スイス連邦工科大学ローザンヌ校(EPFL)、スイス連邦工科大学チューリッヒ校(ETHZ)、スイス国立スーパーコンピューティングセンター(CSCS)が共同で開発した「Apertus」がリリースされました。Apertusは透明性とデジタル主権を重視し、学習データやコードがすべて公開された大規模言語モデル(LLM)で、1000種類以上の言語にわたる15兆トークンでトレーニングされています。 apertus-tech-report/Apertus_Tech_Report.pdf (メイン) · swiss-ai/apertus-tech-report · GitHub https://github.com/swiss-ai/apertus-tech-report/blob/main/Apertus_Tech_Report.pdf Apertus: a fully open, transparent

    スイス独自の完全オープンソースLLM「Apertus」がリリースされる、1000言語以上にわたる15兆トークンで学習&透明性とデジタル主権を重視
    kisiritooru
    kisiritooru 2025/09/05
    デジタル自衛に先駆けてそう
  • 光回路AI。消費電力ほぼゼロ、なのに画像生成できる「物体」が登場!いずれ電力ゼロのLLMも?

    光回路AI。消費電力ほぼゼロ、なのに画像生成できる「物体」が登場!いずれ電力ゼロのLLMも? Updated by 清水 亮 on September 3, 2025, 15:30 pm JST 清水 亮 ryo_shimizu 新潟県長岡市生まれ。1990年代よりプログラマーとしてゲーム業界、モバイル業界などで数社の立ち上げに関わる。現在も現役のプログラマーとして日夜AI開発に情熱を捧げている。 Tweet これまでもAIの「民主化」や「社会実装」の重要性について語ってきた。その観点から見ると、現在のGPUやTPUを多用するデジタル生成モデルによって年々増加する消費電力の懸念は、まさに喫緊の課題だ。 そんな中、まさにこれらの課題を根から覆す可能性を秘めた論文が現れた。それが「光回路AI(Optical Neural Network)」だ。これは、デジタル生成モデル、特に拡散モデルにイン

    kisiritooru
    kisiritooru 2025/09/04
    理系に詳しくないけど信じられない
  • Microsoftから登場したVibeVoice凄すぎ

    Hugging Faceを開いたら、Microsoftから登場したVibe Voice 1.5Bモデルがトレンドに上がってました。 気になって調べてみたところめっちゃすごかったので紹介 Vibe Voice 1.5Bの特徴 1. 長尺生成 最大90分、4人の異なる話者による自然な会話が可能とのこと 2. モデルの軽さ 1.5Bとのことで軽そーとは思いましたが、GPU積んだPCで全然動くようです。 VRAMが8GBあれば十分動かせそうです。(RTX3060以上であればOK) ベースモデルはQwen2.5 1.5bモデルです。 3. オープンソース MITライセンスでHugging Faceから無料で自由に利用可能! 4. 出力音声の品質 めちゃくちゃ自然で感情のこもった音声を出力してくれます。 従来のTTSモデルにありがちな棒読みではありません。 動かしてみる GitHubに動かすためのコー

    Microsoftから登場したVibeVoice凄すぎ