Top > 学術&研究 > LLMは「同じ質問を2回」入力すると精度が上がる──Google研究者ら、プロンプト反復の効果を短報で報告
2026/01/04 追記 SQLiteのmigrationsが実行されない不具合があったため修正しました。最新版をpullするか、修正済みのrelease版をダウンロードしてご利用ください。 https://github.com/togatoga/pedaru/releases こんにちは、@togatogaです。検索とRustが好きなソフトウェアエンジニアです。 私は技術書を読むのが好きです。近年はAIやLLMのサービスの発展により和訳や解説を手軽に得られるようになったこともありPDF形式で技術書を購入することが増えました。しかし、既存のPDFリーダーには私が欲しい機能が不足しており、読書体験があまり良くありませんでした。 私がPDFリーダーに求めている要件は以下の通りです。 前のページの図表や文章を見つつ、今のページを読みたい(特に数ページ前の内容を参照したい場合) 巻末の答えや解説
AIは間違うのになぜ使うのか 「ChatGPTの回答は必ずしも正しいとは限りません。重要な情報は確認するようにしてください」。 ChatGPの入力欄の下には、そう書かれている。Claudeにも、Geminiにも、同じような注意書きが掲げられている。最新モデルであるGPT-5.2 Thinkingは「GPT‑5.1 Thinking と比べてハルシネーションの発生が少なくなっています」といい、少なくとも1つのエラーを含む応答は8.8%から6.2%に減少したらしい。これを高いと見るか低いと見るかは人によるだろうが、結果が間違うことを明示しながら料金を取るサービスというのもなかなか珍しい。なぜ僕らは堂々と嘘を吐くAIに課金しているのだろうか。 実のところ、多くの人は「正解」を求めてAIを使っているわけではない。無料プランで十分だと考えている人も多いし、前回の記事でも書いた通り一部のユーザーは、A
はじめに こんにちは、和田です。いえらぶGROUPで開発部の執行役員を務めています。 弊社も例に漏れず、今年はAI活用に非常に注力してきました。Cursorを全エンジニアに導入し、テックリードにはClaude Codeを配布、業務効率化・実装スピード強化・精度向上を進めてきました。 そんな会社で、私はある新人エンジニアに対して「AIの使用を禁止する」という判断を下しました。 先日ちょっと話題になってましたね、こちらの彼の話です。 社内でも圧倒的なAI推進派の私がなぜそのような判断をしたのか。そして3ヶ月後、その新人はどう変わったのか。この記事では、私の目線からのある種答え合わせ的なつもりで経緯と結果をまとめてみました。 最初は「AIをどんどん使わせていた」 新人が入社した当初、私は彼にもCursorを使わせていました。なんならClaude Codeも使わせていました。理由はシンプルです。
11月20日、GoogleのNotebookLMにスライド作成機能が追加されました。収集した情報を美しいスライドに変換できるこの機能は、その利便性の高さから大きな注目を集めています。論文PDFやYouTube動画のスライド化はもちろんですが、実はまだ知られていない「裏技」的な使い道も存在します。 本記事では、NotebookLMのポテンシャルを最大限に引き出す、斬新な活用術を解説します。 1.ソース無しでもスライド作成実は、ほとんどソース無しでも、Geminiが最初から持っている知識を生かしてスライドを作成することができます。 (1) 「生成AI」をテーマとしたスライドの作成まず、NotebookLMにアクセスして、「ノートブックを新規作成」をクリックします。すると、以下のような画面が表示されます。 ここで、「コピーしたテキスト」を選択し、「生成AI」とだけ入力して挿入をクリックします。
エンジニアの又川です。 皆さんは LLM (大規模言語モデル) の 「特殊トークン」 をご存知でしょうか? ChatGPT や Claude などを使っていると意識することは少ないかもしれませんが、実はモデルの内部では 「ここからユーザの発話だよ」「ここで思考を始めるよ」 といった制御情報を伝えるための特別なトークンが使われています。 この記事では、 GPT-1 や BERT、GPT-2 といった黎明期の Transformer モデルから始まり、 T5 のようなテキスト補完から脱却した Transformer モデル、 GPT-3 のような初期の LLM、 InstructGPT のような指示追従型 LLM、 GPT-3.5 Turbo のようなチャット機能付き LLM、 GPT-4 のようなマルチモーダル LLM、そして GPT-5.2 のような思考機能付き LLM (Reasonin
「Nano Banana Pro」で ストーリー漫画の作成を試してみました。 1. Nano Banana Pro で ストーリー漫画の作成を試す作成した漫画は、次のとおりです。 2. Nano Banana Pro で ストーリー漫画の作成手順2-1. キャラクター設定画像の作成「Nano Banana Pro」でキャラクター設定画像 (1K) を作成します。 設定は「ChatGPT」と相談して作成しました。 キャラクター設定の画像を作成して。 ## 琴音こだま(主人公) - 高校1年生女子 - 極度のコミュ障/人見知り - 身長150cm - ピンクロング、猫背ぎみ - ストリートファイター2の異様な上手さが取り柄 - ゲームパッドを抱えて生活している - ふだんはぼそぼそ喋るが、対戦中は豹変 # 美咲(サブキャラ/友達役) - 同級生女子 - 黄色ポニーテール - 明るい/人当たりが
Claude CodeやCodexの登場でコーディングは体感3倍くらい早くなりました。しかしプロダクト開発自体の速度アップは1.x倍くらいに留まっている気がします。 その原因は「プロダクト作りはコーディング以外にも色々やることがあるから」だと思い、コーディング以外でのAI活用を今年色々試したのでまとめてみます。 なお、このZennは「小さなチーム 大きな仕事」というタイトルで以前発表したものの再編版です。スライドの方が読みやすい方はそちらを参照してください:) AIの力を借りて2人で10人分の仕事をする 前提: 個人開発で作っているもの 「tone(トーン)」というチーム版Todoサービスを友人と2人で作っています。 Todoアプリはエンジニアの勉強目的で作られることもあるぐらいなので簡単なイメージがあるかもしれませんが、toneでは色々と複雑なことをやっています。 例えば、 gRPC /
生成 AI の活用が急速に普及する一方で、大学生の皆さんからは「正しい AI の使い方をもっと学びたい」「AI にどういう場面で頼ってもいいのかわからない」といった、活用に関する声も寄せられています。 この背景を踏まえ、今年 7 月に学生の皆さんが Gemini をはじめとする AI ツールを最大限活用できるよう、全国の大学生および大学院生を対象とした「Google AI 学生アンバサダープログラム」を発表しました。 8 月から全国 200以上の大学から 800 名以上の学生が本プログラムに参加され、 AI を安全かつ効果的に活用するスキルを習得し、大学生ならではの活用方法を考え共有されています。 これまでの 4 ヶ月の活動を通して 数百件もの Gemini 活用アイデアが寄せられました。 この度、これらの活用アイデアを一冊のハンドブックとしてまとめました。 ハンドブックのデジタル版は、こ
中国製AI・DeepSeek(深度求索)は非常に高い能力を持っていることが第三者の検証でも明らかになっていますが、一方で、中国製ということで、中国政府の好まない相手向けにはわざと低品質な回答を出力している可能性があることが指摘されていました。セキュリティ企業・CrowdStrikeがこの問題を調査し、「中国共産党がセンシティブな内容だと判断するようなトピックを含むプロンプトを投げかけられた場合、深刻な脆弱(ぜいじゃく)性を含むコードを生成する可能性が最大50%増加する」ことを突き止めました。 CrowdStrike Researchers Identify Hidden Vulnerabilities in AI-Coded Software https://www.crowdstrike.com/en-us/blog/crowdstrike-researchers-identify-hi
こんにちは。2019年と2024年に記事を書いていた山本です。ますます元気にモノタロウで働いております。 さて、毎日、散発的に、突然やってくる割り込み業務って、地味~に疲れますよね。そんな負担がかかっているチームメンバーたちを少しでも楽にするため、生成AIを活用して業務改善をし、我ながら見事な成果を上げたものの、全然スマートじゃない野暮な設計をしているのが恥ずかしくて、公表と展開はチーム内だけに留めていました。 当社の生成AI活用のレベルが高いのは、他のブログ記事をご覧になれば分かると思います。これらに比べたらショボすぎて、恥ずかしかったのです。 tech-blog.monotaro.com しかし、AI駆動開発チームのリーダーの市原さん(この記事の人)に何故か見つかってしまい。 意外なことに「すごい発想!面白い!」と褒めちぎられ、「すごいから社外カンファレンスで発表しましょう!」と神輿に
Googleの「NotebookLM」は、リサーチ、情報の整理、ドキュメントの内容に関する対話、要約の生成、フラッシュカードの作成、カスタムレポートの作成などに役立つツールとして、驚くほど人気を集めている。NotebookLMを使えば、自分のソースを追加し、人工知能(AI)を使ってソース間の関連性を明らかにできるため、ソースに対する理解がさらに深まる。また、NotebookLMはアップロードされたソースのみを扱うため、ユーザーは自分でソースを管理できる。 NotebookLMの最大の問題は、クラウドサービスであり、ローカル環境で実行できないことだ。ローカルにインストールしたAI(「Ollama」など)と連携させることは可能だが、その組み合わせでは使える機能が限られる。 では、プライバシーを重視しながら、自宅のネットワークでNotebookLMのようなツールを使う必要がある場合は、どうすれば
はじめに製造業でローカルLLMの導入が話題になっています。 「ChatGPTは便利だけど、機密情報を扱えない」 「社内にサーバーを置けば、安全に生成AIが使えるらしい」 「最近のローカルLLMは性能が高いと聞いた」 こういった期待を持って、ITベンダーに相談する。担当者は丁寧にヒアリングしてくれます。立派な提案書も届きます。そして見積もり。金額は300万円から1,500万円、期間は3ヶ月から半年。 数ヶ月経って契約が成立し、プロジェクトが進みます。要件定義、環境構築。そして2〜3ヶ月後、ようやく検証環境が完成します。 検討開始から半年が経過。ようやく現場の担当者が触ってみる。 「あれ、このUI、使いにくいな...」 「既存の業務フローに合わない」 「思ったより効果が出ない」 でも、既に300万円を払った後です。 問題は、ITベンダーのPoCが悪いわけではありません。問題は、「触る」のが遅す
「Gerbil」は大規模言語モデルや画像生成モデルをローカルで実行できるPC向けのアプリです。チャットAIとして使えたりFLUXを用いて高品質な画像を生成できたりして面白そうだったので、実際に使ってみました。 GitHub - lone-cloud/gerbil: A desktop app for running Large Language Models locally. https://github.com/lone-cloud/gerbil GerbilはWindows・macOS・Linuxで使えるアプリです。今回はWindowsで実行してみます。まず、ダウンロードページにアクセスして最新版のインストーラーをダウンロード。今回は「Gerbil-Setup-1.8.5.exe」をダウンロードしました。 インストーラーのダウンロードが完了したらダブルクリックして実行します。 セキュリ
ChatGPTに「温かい会話」が帰ってきた。OpenAIがGPT-5.1をリリース、評判が悪かった5を改善2025.11.13 07:1523,927 かみやまたくみ 好きになれるかな? 2025年11月13日、OpenAIがChatGPT向けに新AIモデル「GPT-5.1」を発表しました。「温かみがあって会話が楽しめるモデル」が目指されています。前々から計画されていたアップデートで、GPT-5の会話性能があまり評判がよくなかったことへの対応となります。 GPT-5.1 in ChatGPT is rolling out to all users this week. It’s smarter, more reliable, and a lot more conversational.https://t.co/SA1Q1GPyxV — OpenAI (@OpenAI) November 1
こんにちは、ログラスの松岡(@little_hand_s)です 3行まとめ AIに質問させるときに選択肢を提示させると、回答が楽で早くなる さらに、推奨度とその理由を出力させると、その根拠を元にAIと議論できるし、納得感を持って進められる 結果、意思決定が速くなり、質も上がる AIと対話しながら開発してますか? Claude CodeやCursorなどのAI開発ツールを使ってる人、増えてますよね。 AIが暴走しないように、不明な点を質問させてる人も多いと思います。 でも、毎回自然言語で答えるの、面倒じゃないですか? たとえば: AI: 「バリデーション、フロントエンドとバックエンドどっちでやりますか?」 あなた: 「うーん、両方かな。セキュリティ的にバックエンドは必須で、UX的にフロントエンドも欲しいし...」(と、入力すると長い) もしどちらでバリデーションするかを決めていなかった場合、
ChatGPTは良い人すぎる? 自分が作ったコードやテキストの問題点をChatGPTに洗い出してほしいのに、オブラートに包んだありきたりな回答が返ってきた経験はありませんか? このように、AIの 「良い人フィルター」 とは、ユーザーを過度に肯定し、批判的な意見を控えめにする傾向のことです。 これは一見優しく見えますが、成長の妨げになっていることも事実です。 「良い人フィルター」を排除するプロンプトが話題に 先日、Xにて下記のようなポストが話題になっていました。 Redditに投稿されたプロンプトが話題になり、Xでもシェアされてバズった。という流れですね。 原文のプロンプトは下記の通り。 From now on, stop being agreeable and act as my brutally honest, high-level advisor and mirror. Don’t v
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をいくつかピックアップして解説する連載「生成AIウィークリー」から、特に興味深いAI技術や研究にスポットライトを当てる生成AIクローズアップ。 今回は、能力がある人とない人の仕事の増減をAI普及の前後で調査した論文「Making Talk Cheap: Generative AI and Labor Market Signaling」を取り上げます。 大規模言語モデル(LLM)の登場で、誰でも簡単に、非常に質の高い文章が作れるようになりました。この変化は、特に就職活動や仕事の応募といった場面で大きな影響を与えています。 ▲優秀な人がAIのせいで仕事が減少しているイラスト(絵:おね) かつては、応募先の企業や仕事内容
Moonshot AIは11月5日、オープンソースの推論特化型LLM「Kimi K2 Thinking」を公開しました。 K2 Thinkingは特定の推論・エージェント系ベンチでGPT-5やClaude 4.5 Sonnet (Thinking)と同等、または上回る性能を記録しており、オープンソース分野で大きな注目を集めています。 このモデルは総パラメータ1兆規模のMoEアーキテクチャを採用し、推論時には32Bのパラメータが用いられます。 また、コンテキストウィンドウは256Kで、INT4量子化により推論速度とメモリ効率の向上が図られています。 最大の特徴は、人間の介入なしで200~300回の連続ツール呼び出しを実行し、複雑な作業を一貫して維持できること。長尺思考とツールの多段呼び出しの組み合わせで長い推論が得意となっているようです。 また、本モデルはオープンソースのため、Hugging
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く