Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/zhenxiangba/zhenxiangba.com/public_html/phproxy-improved-master/index.php on line 456
[B! LLM] otationのブックマーク
[go: Go Back, main page]

タグ

LLMに関するotationのブックマーク (5)

  • Vibe Codingで25万ダウンロード超のOSSを開発できた。できたが… ── AIの役割 vs 人間の役割ではなく「協働」で考える

    はじめに @dyoshikawaです。 私の2025年6月ごろからの取り組みとして、Claude CodeによるVibe CodingでRulesyncというOSSツールを公開しました。 そこでかなり自由にClaude Codeでいろんな手法を試すことができましたので、AIコーディング全般のTipsをお伝えできればと思います。 一方で(人間の介入が少なすぎる)Vibe Codingの弊害としてコードベースやドキュメントが崩壊し、途中で開発がストップした場面もありました。ここのプロセスの反省と、どのように開発可能に復帰させたかという点も紹介します。 最後に人間の役割、AIの役割、ソフトウェア開発の未来といったトピックに触れたいと思います。 Rulesync: 主要なAIコーディングツールの設定ファイルを一括管理 まず、私が開発・公開したツール Rulesync について簡単に紹介します。 こ

    Vibe Codingで25万ダウンロード超のOSSを開発できた。できたが… ── AIの役割 vs 人間の役割ではなく「協働」で考える
  • 我々はCodexとどう向き合うべきなのか

    この記事は、すでにCodexやClaudeCodeなどのAIコーディングツールを実際に使い始めているエンジニアに向けて書いている。「期待ほど効率が上がらない」と感じている人や、運用の型を模索している個人開発者を想定している。導入方法や基礎理論は扱わない。ひとりのエンジニアが数ヶ月間Codexと向き合って得た、実践的な運用知見を語る。 数ヶ月で変わったこと まず、ここ数ヶ月でAIコーディングツールの使い方が大きく変わったという話からしたい。 数ヶ月前のClaudeCodeガードレール戦略全盛期と比べると、隔世の感がある。あの頃は、AIが暴走しないように制御する、余計なことをさせないようにガードレールを張り巡らせることに頭を悩ませていた。Kiroが登場したときも、その延長線上にあった。 しかしGPT-5-Codexの登場で、その流れが変わった。 コンテキスト詰め込み時代の終わり 何が変わったの

    我々はCodexとどう向き合うべきなのか
  • 【2025年最新】Anthropic公式が明かすClaude 4プロンプト最適化12のテクニック - Qiita

    はじめに こんにちは、みなさん!最近、私はClaudeを使ったプロジェクトで苦戦していたんですよ。「なんでこのAIは私の意図を理解してくれないんだ...」と頭を抱えていた時、Anthropicが公式に内部プロンプトエンジニアリング技術を公開したんです!これは当に目から鱗でした。 Anthropicがついに社内で使っているプロンプト技術を公開しました。主にClaudeのために設計されていますが、ほとんどの技術は他のLLMにも使えます。彼らが強調しているのは、プロンプトエンジニアリングはモデルの微調整よりも効率的だということ。理由は単純で、リソース要求が低く、コストが安く、反復が速いからです。 核心原則:Claude 4を使いこなすための4つの基 最新のClaude 4モデルに対して、Anthropicは特に4つの基原則を強調しています: 明確に指示する(Be Explicit) Cla

    【2025年最新】Anthropic公式が明かすClaude 4プロンプト最適化12のテクニック - Qiita
  • ローカルLLMは次世代エロゲの夢を見るか|黒神

    ⚠️ タイトルでお察しの通り、この投稿には若干の NSFW 要素を含みます。 お気をつけてお読みください。 ちょっと前に酔った勢いで書いて下書き状態だったので供養しておきます。 ローカル LLM って夢があるなぁ、というお話です。 きっかけ ちょうど中国から DeepSeek が発表されたときくらいのお話です。 いつものように Twitter を眺めて情報を追っていたところ、やなぎさんのこのツイートが目に止まりました。 DeepSeekR1をきっかけにローカルLLMを触った人向け、日語に強いおすすめモデル紹介 ・calm3-22b-RP-v2(ロールプレイ特化)

    ローカルLLMは次世代エロゲの夢を見るか|黒神
    otation
    otation 2025/04/05
    人類の叡智
  • 最近のコーディングにおけるLLMの使い方QA - Qiita

    総評としては、Claudeがライブラリ指示追従性能が高く便利で、ロングコンテキストを加味するとGemini 2.5 Proをサブとして用いると良さそうです。 備考 実際のコーディングにおいては画像対応やモデルごとの最大コンテキスト長も加味する場合もあります。上記ではo1以外は画像対応しており、かつコンテキスト長を最大付近まで使うと現状では性能劣化が激しいためロングコンテキスト性能だけを見るに留めました。 どの言語を使えばいいの? この節のサマリ とりあえず日語でOK LLMにおける言語間の差異について プロンプトにおける言語選択は重要な問題です。言語によって、これらの能力が変わります。 推論能力 トークン効率 ChatGPT が登場した当時は明確に英語での推論が優れていましたが、現在はトークン効率が改善され、以下のベンチマークで見るとおり、推論能力も他とあまり変わりません。 ゆえに現状で

    最近のコーディングにおけるLLMの使い方QA - Qiita
    otation
    otation 2025/03/29
  • 1