Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/zhenxiangba/zhenxiangba.com/public_html/phproxy-improved-master/index.php on line 456
Qwenの人気記事 139件 - はてなブックマーク
[go: Go Back, main page]

並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 139件

新着順 人気順

Qwenの検索結果1 - 40 件 / 139件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

Qwenに関するエントリは139件あります。 人工知能AILLM などが関連タグです。 人気エントリには 『第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに』などがあります。
  • 第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに

    第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに 中国Alibabaが4月29日(現地時間)に発表した、大規模言語モデル「Qwen」の最新版となる「Qwen3」シリーズが話題だ。フラッグシップモデルの「Qwen3-235B-A22B」は「DeepSeek-R1」の半分未満のパラメータ数ながら、OpenAIのo1やo3-mini、GoogleのGemini 2.5 Proなど他のトップモデルと並ぶ性能を達成したという。「Qwen3-4B」は小さなモデルでありながらも「GPT-4o」を多くの項目で上回るとしている。 公開した全てのモデルがオープンウェイトであるため、フラグシップの235B-A22B以外はデスクトップ向けハイエンドGPUなどで動作さ

      第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに
    • Qwen3はローカルLLMの世界を変えたかも - きしだのHatena

      Qwen3が出ていて、14Bを中心にいろいろ試したのだけど、かなり使い物になって、日常的な用途ではこれでいいのでは、という感じもします。 4BでもGPT-4oを越えているという話もありますが、確かに単純な用途ではGPT-4oの代わりにしてもいいなと場面も割とありそうな出力です。さすがにちょっと込み入ったものだと4oだけど。 1.7Bなど小さいモデルも既存のモデルより使えるものになっていて、ローカルLLMの世界を変えそう。 解説動画も撮りました。 週間ニュースのまとめはじめました。 サイズとしては0.6B, 1.7B, 4B, 8B, 14B, 32Bと、MoEモデルの30B-A3B, 235B-A22Bです。 30B-A3Bが賢いというベンチマークだけど、コーディング用途だと14Bや32Bのほうがいいかも。MacならMLXで30B-A3Bは めちゃ速くていいけど。という感じでどのサイズにも

        Qwen3はローカルLLMの世界を変えたかも - きしだのHatena
      • グーグル「Nano Banana」級にすごい。無料の画像生成AI「Qwen-Image-Edit-2509」

        sponsored 生成AIにもクリエイティブにも快適、モバイルノート選びの新しい選択肢 高い基本性能とAI性能を求めるなら、Snapdragon X sponsored さらば停電!UPS派にもオススメしたい、最新ポータブル電源を買っておくべき理由 パソコンユーザーのための「ポータブル電源導入」ガイド〜Jackeryは10月4日から最大50%セール【Amazon プライム感謝祭】 sponsored 10年目を迎えたソラコム 今の玉川社長の頭に中にあるモノとは? AIは、これから現実のモノと結びついていく──IoTの次は「リアルワールドAIプラットフォーム」 sponsored 「1人契約すれば家族3人のデジタル機器を守れる」という爆アド仕様に注目! 【即契約がオススメ】コスパ高くスマホを守るならドコモ「あんしんセキュリティ トータルプラン」が超お得&機能てんこ盛り sponsored

          グーグル「Nano Banana」級にすごい。無料の画像生成AI「Qwen-Image-Edit-2509」
        • AIプログラムの開発演習に使う低消費リソースローカルLLMはQwen3 1.7B Q4がベスト - きしだのHatena

          AIプログラムの開発、つまり、AIにコードを書かせるのではなくて、LLMを呼び出したりRAGを実装したりエージェントを作ったりといったAIを組み込むプログラミングの演習をしたいときに、参加者のPCに十分なリソースを前提とできないことは多いと思います。 Java AIプログラミング記事でQwen3 1.7B Q4_K_Mを選んだ 先月gihyo.jpの連載で、「JavaでAIプログラミングをはじめよう」という記事を出しました。 「JavaでAIプログラミングをはじめよう」という短期連載をgihyo.jpで出しました - きしだのHatena そのときに、読者のPCにGPUが載ってたりMacであることだったりは前提にできないので、なるべく必要なリソースが少ないモデルを選ぶ必要があって、最終的にQwen3 1.7BのQ4_K_Mを選びました。初回に、LM Studioとあわせた導入方法を載せてま

            AIプログラムの開発演習に使う低消費リソースローカルLLMはQwen3 1.7B Q4がベスト - きしだのHatena
          • Qwen3 Coderがかなり使える件について

            はじめに 1週間くらい前にリリースされたQwen3 CoderがOpenRouterにてqwen3-coder:freeとして使えるので試してみた。 Hugging Faceでいえばこのモデル ちなみにQwenはAlibabaが開発しているオープンソースのLLMモデル。 結論から言うと相当使える、無料でこれ(ただしRate Limitあり)というのは単純にヤバい。 使い方 Claude-Code風に使いたい場合は、qwen-codeライブラリを利用する(このライブラリはちなみにまんまgemini-cliの実装を利用している) インストール方法

              Qwen3 Coderがかなり使える件について
            • 画像認識AIモデル「Qwen3-VL」の軽量版が登場したので使ってみた、低いVRAM使用量で高性能を実現

              Qwen3-VLの軽量版であるQwen3-VL-4BおよびQwen3-VL-8Bが公開されました。これらのモデルは、Qwen3-VLの全機能が保持されており、従来のモデルに比べて大幅にVRAM使用量を削減しつつ、Qwen2.5-VL-72Bに匹敵する性能を発揮するとのことで試しにローカルPCにインストールして使ってみました。 Qwen https://qwen.ai/home Introducing the compact, dense versions of Qwen3-VL — now available in 4B and 8B pairs, each with both Instruct and Thinking variants. ✅ Lower VRAM usage ✅ Full Qwen3-VL capabilities retained ✅ Strong performan

                画像認識AIモデル「Qwen3-VL」の軽量版が登場したので使ってみた、低いVRAM使用量で高性能を実現
              • cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese · Hugging Face

                DeepSeek-R1-Distill-Qwen-32B-Japanese Model Description This is a Japanese finetuned model based on deepseek-ai/DeepSeek-R1-Distill-Qwen-32B. Usage from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer model = AutoModelForCausalLM.from_pretrained("cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese", device_map="auto", torch_dtype="auto") tokenizer = AutoTokenizer.from_pretrained

                  cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese · Hugging Face
                • Qwen3 の概要|npaka

                  以下の記事が面白かったので、簡単にまとめました。 ・Qwen3: Think Deeper, Act Faster 1. Qwen3本日 (2025年4月28日) 、「Qwen3」をリリースしました。「Qwen3-235B-A22B」は、「DeepSeek-R1」「o1」「o3-mini」「Grok-3」「Gemini-2.5-Pro」などの他のトップティアモデルと比較して、コーディング、数学、一般的な機能などのベンチマーク評価で競争力のある結果を達成しています。さらに、小型のMoEである「Qwen3-30B-A3B」は、10倍のアクティブパラメータを持つ「QwQ-32B」を凌駕し、「Qwen3-4B」のような小さなモデルでさえ、「Qwen2.5-72B-Instruct」の性能に匹敵します。 2つのMoEモデルをオープンウェイト化しています。「Qwen3-235B-A22B」は、総パラメ

                    Qwen3 の概要|npaka
                  • Qwen3-235BやQwen3-30B、Qwen3 Coder Flashは長コンテキストでの性能劣化が激しいのでは - きしだのHatena

                    Qwen3のアップデートがいろいろ出ていて、ベンチマークですごい結果を出したりしています。 けど、実際に使うと全然そんな性能が出てる気しないです。 これたぶん、コンテキストが長くなったときの性能劣化が激しいんじゃないかと思います。 なので、ベンチマークや、ちょっとプロンプト一発投げて返答を見ると性能よさそうに見えるんだけど、実際に使うとダメということになるんだと思います。 Qwen3 30Bアップデートとコーディングモデル Qwen3のアップデートは、先日の235Bに続いて、30B-A3Bのnon-thinkingモデルと、それをベースにしたコーディングモデルが出ていました。 Qwen/Qwen3-30B-A3B-Instruct-2507 · Hugging Face Qwen/Qwen3-Coder-30B-A3B-Instruct · Hugging Face 235Bについては、な

                      Qwen3-235BやQwen3-30B、Qwen3 Coder Flashは長コンテキストでの性能劣化が激しいのでは - きしだのHatena
                    • プログラマー必見!LMStudioとQwen3で始めるローカルAI開発環境構築 - Qiita

                      Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 最近、AIの世界がマジで熱いんですよね。特に大規模言語モデル(LLM)の進化が半端ないです。昨日、Qwenチームが新しいモデル「Qwen3」をリリースしたんですが、これがかなりのモンスターなんですよ。コーディングや数学、推論タスクでめちゃくちゃ良い成績を出してるんです。 僕は普段からローカルでAIモデルを動かすのが好きなんですけど、今回はLMStudioを使ってQwen3を自分のマシンで動かしてみました。クラウドAPIも便利ですけど、やっぱり自分のPCで動かせると、プライバシーの心配もないし、コスト管理もしやすいんですよね。それに、オフ

                        プログラマー必見!LMStudioとQwen3で始めるローカルAI開発環境構築 - Qiita
                      • 数学を解ける言語モデル「Qwen2-Math」が登場、GPT-4o超えの数学性能

                        中国のAI研究チームが数学特化の大規模言語モデル「Qwen2-Math」を公開しました。Qwen2-MathはGPT-4oやGemini-1.5-Proなどのクローズドソースの大規模言語モデルをしのぐ数学性能を備えています。 Introducing Qwen2-Math | Qwen https://qwenlm.github.io/blog/qwen2-math/ QwenLM/Qwen2-Math: A series of math-specific large language models of our Qwen2 series. https://github.com/QwenLM/Qwen2-Math Qwen2-Mathは、AlibabaグループのAI研究チーム「Qwen Team」が開発した大規模言語モデルで、数学問題の正答率の高さが特徴です。Qwen2-Mathは非常に高い

                          数学を解ける言語モデル「Qwen2-Math」が登場、GPT-4o超えの数学性能
                        • iPhoneやMacで重量級画像生成AIをローカル実行できる「Draw Things」を使ってみたよレビュー、Qwen Imageのような大型モデルも実行可能

                          「Draw Things」はiPhone・iPad・macOSに対応した無料の画像生成AIアプリで、多様なモデルを用いてローカルで生成処理を実行できます。Qwen Imageなどの大型モデルもiPhoneでローカル動作させられるとのことなので、実際に使ってみました。 Draw Things: AI-assisted Image Generation https://drawthings.ai/ 「Draw Things: Offline AI Art」をApp Storeで https://apps.apple.com/jp/app/draw-things-offline-ai-art/id6444050820 Draw ThingsはStable Diffusionの登場で画像生成AIに対する注目が一気に高まった2022年に開発されたアプリです。GIGAZINEでも登場初期にレビュー済み

                            iPhoneやMacで重量級画像生成AIをローカル実行できる「Draw Things」を使ってみたよレビュー、Qwen Imageのような大型モデルも実行可能
                          • オープンソースのコーディング支援AI「Qwen2.5-Coder」シリーズの性能はGPT-4oに匹敵、64GBのRAM&M2搭載MacBook Proでもローカル実行可能

                            中国・Alibabaグループが開発する大規模言語モデル(LLM)「Qwen」の研究チームが、コード生成や補完、数学の推論タスクに特化したLLM「Qwen2.5-Coder」の新モデルを2024年11月12日にリリースしました。Qwen2.5-Coderのコーディング機能はGPT-4oに匹敵し、パラメータ数も最大320億で、M2搭載MacBook Pro上でも実行できたことが報告されています。 Qwen2.5-Coder Series: Powerful, Diverse, Practical. | Qwen https://qwenlm.github.io/blog/qwen2.5-coder-family/ Qwen2.5-Coderは2024年10月にテクニカルレポートが発表されており、この時にパラメータ数15億(1.5B)のモデルと70億(7B)のモデルがオープンソースで公開されてい

                              オープンソースのコーディング支援AI「Qwen2.5-Coder」シリーズの性能はGPT-4oに匹敵、64GBのRAM&M2搭載MacBook Proでもローカル実行可能
                            • Claude Sonnet 4に匹敵するコーディング特化のオープンモデル「Qwen3-Coder」をAlibabaが発表

                              Alibabaの大規模言語モデル「Qwen」の研究チームが、コーディングに特化したエージェントモデル「Qwen3-Coder」を発表しました。パラメータ数4800億・アクティブパラメータ数350億のモデル「Qwen3-Coder-480B-A35B-Instruct」は、Claude Sonnet 4に匹敵する最先端の結果を達成しています。 Qwen3-Coder: Agentic Coding in the World | Qwen https://qwenlm.github.io/blog/qwen3-coder/ GitHub - QwenLM/Qwen3-Coder: Qwen3-Coder is the code version of Qwen3, the large language model series developed by Qwen team, Alibaba Cl

                                Claude Sonnet 4に匹敵するコーディング特化のオープンモデル「Qwen3-Coder」をAlibabaが発表
                              • コスパの高いAIモデル「Qwen3-Next」登場、従来より10倍高速で同等以上の性能を実現

                                中国の大手テクノロジー企業「Alibaba」のAI研究チームが低コストかつ高性能なAIモデル「Qwen3-Next」を開発して無料公開しました。Qwen3-Nextは従来モデルと比べて10分の1以下のコストでトレーニングされており、入力トークンが多い状況では10倍以上高速な推論処理が可能。それでいて、性能は従来モデルと同等以上で、一部のテストではGoogleのGemini-2.5-Flash-Thinkingを上回っているとアピールされています。 Qwen3-Next: Towards Ultimate Training & Inference Efficiency https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list Qwen3-Nex

                                  コスパの高いAIモデル「Qwen3-Next」登場、従来より10倍高速で同等以上の性能を実現
                                • キャラクターを維持したまま別のシチュエーションに描き直せる画像編集AI「Qwen-Image-Edit」が登場、文字の描き直しや「被写体の回転」も可能

                                  中国のIT企業・アリババ(阿里巴巴)のAI開発チームが、画像生成AI「Qwen-Image」に基づいて画像編集タスクを拡張し、キャラクターの元の見た目を維持したまま別の情景を描き出すことができる「Qwen-Image-Edit」を発表しました。 Qwen-Image-Edit: Image Editing with Higher Quality and Efficiency | Qwen https://qwenlm.github.io/blog/qwen-image-edit/ 🚀 Excited to introduce Qwen-Image-Edit! Built on 20B Qwen-Image, it brings precise bilingual text editing (Chinese & English) while preserving style, and su

                                    キャラクターを維持したまま別のシチュエーションに描き直せる画像編集AI「Qwen-Image-Edit」が登場、文字の描き直しや「被写体の回転」も可能
                                  • 新しいR1で蒸留されたDeepSeek-R1-0528-Qwen3-8Bを試す

                                    あ、ユーザーが日本語で挨拶してきた。 なんか良いですねw 生成し直してみても お、朝から日本語で挨拶が来た。ユーザーは多分日本の会社や学校関係かも? という調子なので、フランクな感じな味付けなんですね。 javascriptプログラミング 出力が長いこともあり具体的な内容は省略します。 テトリスを作成するには、以下のステップを考えます。 ゲームボードの作成: 通常は10列×20行ですが、テキストベースで表示するのではなく、HTML/CSSを使ってブロックを配置します。 テトロミノの種類と形状: 7つのテトロミノ(I, J, L, O, S, T, Z)とその回転形を定義します。 ゲームの制御: ユーザーがブロックを操作して落下させ、満タンした行を消去し、新しいブロックが床に当たるまで続ける仕組みです。 スコアリングとゲームオーバーの判定。 thinkタグ内は日本語で生成は14秒ほどと簡潔な

                                      新しいR1で蒸留されたDeepSeek-R1-0528-Qwen3-8Bを試す
                                    • GPT-4oやo1より高性能な推論モデル「Qwen3」をAlibabaが発表、フラグシップモデルの「Qwen3-235B-A22B」はパラメーター数2350億&アクティブパラメーター数220億

                                      中国のAlibabaが開発する大規模言語モデル(LLM)ファミリーのQwenに、「Qwen3」が登場しました。Qwen3には2つの混合エキスパート(MoE)モデルと、6つのDenseモデルが含まれており、パラメーターサイズは6億から2350億までと非常に幅広いです。 Qwen3: Think Deeper, Act Faster | Qwen https://qwenlm.github.io/blog/qwen3/ GitHub - QwenLM/Qwen3: Qwen3 is the large language model series developed by Qwen team, Alibaba Cloud. https://github.com/QwenLM/Qwen3 Alibaba unveils Qwen3, a family of 'hybrid' AI reasonin

                                        GPT-4oやo1より高性能な推論モデル「Qwen3」をAlibabaが発表、フラグシップモデルの「Qwen3-235B-A22B」はパラメーター数2350億&アクティブパラメーター数220億
                                      • DeepSeekにほぼ並ぶ性能を実現したオープンソースのAIモデル「QWQ-32B」をQwenが公開、誰でも無料で動かせるデモページも公開中

                                        Alibaba CloudのAI研究チームであるQwenが、AIモデル「QWQ-32B」を2025年3月6日にリリースしました。320億パラメーターのモデルでありながら6710億パラメーターのDeepSeek-R1と同等の性能を持つとされています。 QwQ-32B: Embracing the Power of Reinforcement Learning | Qwen https://qwenlm.github.io/blog/qwq-32b/ DeepSeek-R1は強化学習(RL)を活用することで従来の事前トレーニングおよび事後トレーニングの方法を超えて高いパフォーマンスを発揮しています。あまりにも性能が高かったため、2025年1月にDeepSeek-R1が登場した際にはNVIDIAの時価総額が91兆円も下がるなど大きな混乱を引き起こしました。 DeepSeekはなぜこんな大騒ぎにな

                                          DeepSeekにほぼ並ぶ性能を実現したオープンソースのAIモデル「QWQ-32B」をQwenが公開、誰でも無料で動かせるデモページも公開中
                                        • Alibabaがリアルタイムで音声会話できるAIモデル「Qwen3-Omni」やGPT-5と同等性能の画像認識AIモデル「Qwen3-VL」を公開、他にも言語モデルや画像編集モデルを一挙大量公開

                                          中国に拠点を置く大手テクノロジー企業「Alibaba」のAI研究チーム「Qwen」が、自然言語でリアルタイム応答できるAIモデル「Qwen3-Omni」を2025年9月22日に発表しました。さらに、9月22日~24日の短期間に「Qwen3-VL」「Qwen3-TTS」「Qwen-Image-Edit-2509」「Qwen3-VL」「Qwen3-LiveTranslate-Flash」「Qwen3-Max」といったAIモデルが続々と発表されています。 Qwen https://qwen.ai/home ◆Qwen3-Omni Qwen3-Omniはテキスト・画像・音声・動画を処理してリアルタイムで応答できるAIモデルです。テキストと音声での応答に対応しているほか、119言語のテキスト理解、19言語の音声理解、10言語の音声生成が可能な多言語性能の高さも特徴です。 Qwen3-Omni: Na

                                            Alibabaがリアルタイムで音声会話できるAIモデル「Qwen3-Omni」やGPT-5と同等性能の画像認識AIモデル「Qwen3-VL」を公開、他にも言語モデルや画像編集モデルを一挙大量公開
                                          • 中国アリババQwen、日本製AIの土台に 性能ランクDeepSeek超え - 日本経済新聞

                                            アリババクラウドの人工知能(AI)「通義千問(Qwen)」が日本でも存在感を高めている。オープン型として外部に技術を開放するQwenモデルを、AI開発のABEJAなど国内新興企業が利用する。日本経済新聞社が4月に公開した「AIモデルスコア」では、Qwenモデルが中国のディープシークのモデルを上回って6位につけた。【関連記事】ABEJAは4月17日、新モデルの「QwQ-32B Reasoning

                                              中国アリババQwen、日本製AIの土台に 性能ランクDeepSeek超え - 日本経済新聞
                                            • 手軽に最新LLM!OllamaとQwen3でローカルAI環境を構築する方法 - Qiita

                                              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? こんにちわ、kaitoです。最近、AIの世界がまた一段と面白くなってきたよな。特に、ローカル環境でサクッと大規模言語モデル(LLM)を動かせるツールが出てきてから、俺たちの開発スタイルも変わりつつある。 今回は、巷で噂のQwen3っていうLLMを、俺のマシンで動かしてみた話をしようと思う。しかも、手軽に使えるOllamaと、APIテストでお世話になってるApidogを組み合わせてみたんだ。クラウドAPIも便利だけど、やっぱり自分のPCで動かすと、なんかこう、手に馴染む感じがしていいんだよな。プライバシーも守れるし、オフラインでも使えるっ

                                                手軽に最新LLM!OllamaとQwen3でローカルAI環境を構築する方法 - Qiita
                                              • 日本語VLM「Heron-NVILA」公開 ─ Qwen2.5-VL-7B・Gemma3-12Bに匹敵する性能

                                                はじめに チューリングの横井です。チューリングでは視覚と言語を統合的に理解できるAIを自動運転に応用するため、Vision Language モデル(VLM)「Heron」の開発に取り組んでいます。このたび、経済産業省およびNEDOが推進する日本の生成AIの開発力強化に向けたプロジェクト「GENIAC」第2期の支援のもと開発したVLM「Heron-NVILA」15B, 2B, 1B, 33Bを公開しました。 この記事では開発したHeron-NVILAのアーキテクチャ、学習内容、ベンチマーク評価を紹介します。 モデルアーキテクチャ Heron-NVILAのアーキテクチャは名前の通りNVIDIAが提案したVLMであるNVILAを用いています。 NVILAは 「Vision Encoder → Projector(2 層 MLP)→ LLM」 という 3 段構成を取りつつ Scale ─ 画像を

                                                  日本語VLM「Heron-NVILA」公開 ─ Qwen2.5-VL-7B・Gemma3-12Bに匹敵する性能
                                                • コーディングのための LLM モデル Qwen3-Coder を試してみた

                                                  Alibaba が開発した Qwen3-Coder を使用したコーディングエージェント Qwen Code を試してみた記事です。OpenRouter 経由での認証設定、コードベースの調査、リファクタリング、テストコード生成などの実際の使用例を紹介しています。 Qwen3-Coder は、Alibaba が開発した Qwen3 系列の LLM モデルです。Agentic Coding(エージェントを活用したコーディング⁠)や Agentic Browser-Use(エージェントを通したブラウザ操作⁠)⁠⁠の分野で特筆した成果を上げており、Claude Sonnet 4 に匹敵する性能を持つと言及されています。また 256k トークンの長いコンテキストを持つことができ、長大なドキュメントの処理や複雑なコードベースの理解に優れています。 最新のモデルは Qwen3-Coder-30B-A3B-

                                                    コーディングのための LLM モデル Qwen3-Coder を試してみた
                                                  • “漢字”を正確に描画する生成AI「Qwen-Image」、5秒間の動画を4090なら21秒で生成するAI「FastWan」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                    2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 この1週間の気になる生成AI技術・研究をいくつかピックアップして解説する今回の「生成AIウィークリー」(第108回)は、画像生成の原理で言語を生成するAIモデル「Seed Diffusion Preview」や、画像内のテキストを正確に描画する画像生成AI「Qwen-Image」を取り上げます。 また、RTX 4090なら21秒で5秒間のビデオを生成する動画生成AI「FastWan」と、NVIDIAが「LLMよりSLMが主流になる」と主張した論文をご紹介します。 そして、生成AIウィークリーの中でも特に興味深いAI技術や研究にスポットライトを当てる「生成AIクローズアップ」では、大規模言語モデル(LLM)の「思考の連鎖」(Chain-of-Thou

                                                      “漢字”を正確に描画する生成AI「Qwen-Image」、5秒間の動画を4090なら21秒で生成するAI「FastWan」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                    • 画像生成AI「Qwen-Image」登場、OpenAIやFlux超えの高品質画像を生成可能で「複数行の漢字」を自然に描写できる驚異的テキスト描画性能をアピール

                                                      AlibabaのAI開発チームであるQwenが画像生成AI「Qwen-Image」を2025年8月4日(月)に発表しました。Qwen-Imageは既存の画像生成AIが苦手とする「テキストの正確な描画」を得意としており、「複数行にわたる中国語の文章を含む画像」や「英語と中国語の両方を含む画像」を正確に描画できます。また、一般的な画像生成や画像編集も高品質であることがアピールされています。 Qwen-Image: Crafting with Native Text Rendering | Qwen https://qwenlm.github.io/blog/qwen-image/ Qwen-Imageは画像表現とテキスト表現に別々のウェイトを用いる「マルチモーダル拡散変換器(MMDiT)」と呼ばれる技術を基盤に開発された画像生成AIで、高いテキスト描画性能を備えていることを特徴としています。Q

                                                        画像生成AI「Qwen-Image」登場、OpenAIやFlux超えの高品質画像を生成可能で「複数行の漢字」を自然に描写できる驚異的テキスト描画性能をアピール
                                                      • Alibabaが新たなAIモデル「Qwen2.5-VL-32B」をオープンソースでリリース、画像解析や数学の能力が向上

                                                        Alibaba CloudのAI研究チームであるQwenが、2025年1月にリリースした視覚言語モデル「Qwen2.5 VL」シリーズをベースに新たな視覚言語モデル「Qwen2.5-VL-32B」をリリースしました。画像解析やコンテンツ認識の精度が上がり、回答の品質が向上しています。 Qwen2.5-VL-32B: Smarter and Lighter | Qwen https://qwenlm.github.io/blog/qwen2.5-vl-32b/ 2025年1月にリリースされたQwen2.5 VLにはパラメーターのサイズが異なる「3B」「7B」「72B」という3つのモデルが存在しています。最もサイズの大きい72BモデルはGPT-4oやGemini 2.0 Flashを超える性能を持ちます。 PCやスマートフォンのUIを認識して自動操作できる視覚言語モデル「Qwen2.5 VL」

                                                          Alibabaが新たなAIモデル「Qwen2.5-VL-32B」をオープンソースでリリース、画像解析や数学の能力が向上
                                                        • オープンLLMの日本語性能でトップ──FLUX、「Flux Japanese LLM」公開 独自手法でQwen2.5を進化 | Ledge.ai

                                                          Top > 学術&研究 > オープンLLMの日本語性能でトップ──FLUX、「Flux Japanese LLM」公開 独自手法でQwen2.5を進化

                                                            オープンLLMの日本語性能でトップ──FLUX、「Flux Japanese LLM」公開 独自手法でQwen2.5を進化 | Ledge.ai
                                                          • ローカル環境でQwen3-Omniを動かす

                                                            はじめに Qwen3-Omni-30B-A3B-InstructがQwenよりリリースされた。 手元のマシンを使ってローカル環境でも動かせることがわかったので、備忘録的に記事にまとめる。 環境 Mac Studio EVO-X2 導入手順:Mac 執筆時点でまだggufへの変換ができなかったため、transformersを使って推論をする。使用した感じ、おそらくメモリは128GBないと厳しい。 環境構築 git, uvは導入済みとする。 $ git clone https://github.com/QwenLM/Qwen3-Omni.git $ cd Qwen3-Omni $ uv init --python 3.12 $ uv venv $ uv pip install gradio accelerate torch torchvision soundfile qwen-omni-uti

                                                              ローカル環境でQwen3-Omniを動かす
                                                            • Qwen3-Coder: Agentic Coding in the World

                                                              July 22, 2025 · 5 min · 1000 words · Qwen Team | Translations:简体中文 GITHUB HUGGING FACE MODELSCOPE DISCORD Today, we’re announcing Qwen3-Coder, our most agentic code model to date. Qwen3-Coder is available in multiple sizes, but we’re excited to introduce its most powerful variant first: Qwen3-Coder-480B-A35B-Instruct — a 480B-parameter Mixture-of-Experts model with 35B active parameters which supp

                                                              • 【ローカルLLM】Qwen3を使ってみた話【中国最新AI】|Catapp-Art3D

                                                                はじめにOllamaで大規模言語モデルQwen3が利用可能になったので利用してみました。日本語も公式対応しています。 ただし、筆者の主力GPUであるRTX 3060はFramepack「叡智」版のテストに利用しているので、GTX 1660ti+1650上でのQwen3 8B版の動作確認です。 上記ページをQwen3 8B版で日本語要約しました。 Thought for 22 seconds このドキュメントは、Qwenチームが最新の大規模言語モデル「Qwen3」を発表した内容をまとめています。以下に要約します: 【モデル概要】 Qwen3は、2350億パラメータの大規模モデル(Qwen3-235B-A22B)と、300億パラメータのMoEモデル(Qwen3-30B-A3B)を含むファミリーです。また、4B、8B、14B、32Bなど、さまざまなサイズの密集型モデルも提供され、すべてApach

                                                                  【ローカルLLM】Qwen3を使ってみた話【中国最新AI】|Catapp-Art3D
                                                                • H200 GPU x 8基で Qwen2.5-VL-72B-Instruct を使った OCR を試してみる - ABEJA Tech Blog

                                                                  ABEJAでデータサイエンティストをしている藤原です。 今回は、株式会社ハイレゾ様のGPUクラウドサービス「GPUSOROBAN」で H200 GPU × 8基構成のシングルノードサーバを用いて、大規模モデルを使用した検証を実施しました。本記事では、その検証でのGPUサーバの使用方法や、検証内容の一つである Qwen2.5-VL-72B-Instruct を用いたOCRの結果についてご紹介します。 highreso.jp はじめに GPUクラウドサービス「GPUSOROBAN」について GPUサーバの使い方の方針と事前準備 Qwen2.5-VL-72B-Instruct を使った OCR を試してみる 条件 実装 実行時のGPU使用状況と処理速度 検証1. 通常の文書のOCR 検証2. チャート・グラフのようなテキストで表現されていない情報のテキスト化 検証3. 複雑なレイアウトのドキュメ

                                                                    H200 GPU x 8基で Qwen2.5-VL-72B-Instruct を使った OCR を試してみる - ABEJA Tech Blog
                                                                  • GPT-4oやDeepSeek-V3よりも高性能なAIモデル「Qwen2.5-Max」を中国IT大手のAlibabaがリリース

                                                                    Alibaba CloudのAI研究チームであるQwenが、AIモデル「Qwen2.5-Max」を2025年1月28日にリリースしました。Qwen2.5-Maxは複数のテストでGPT-4oやDeepSeek-V3を上回るスコアを記録しています。 Qwen2.5-Max: Exploring the Intelligence of Large-scale MoE Model | Qwen https://qwenlm.github.io/blog/qwen2.5-max/ Qwen2.5-Maxは、20兆トークン以上の学習データを用いて事前トレーニングしたベースモデルに対して教師ありファインチューニング(SFT)や人間のフィードバックによる強化学習(RLHF)を施して作成されたMoEモデルで、モデルの規模を示すパラメーター数は1000億に達しています。 Qwen2.5-Maxの性能の高さを示

                                                                      GPT-4oやDeepSeek-V3よりも高性能なAIモデル「Qwen2.5-Max」を中国IT大手のAlibabaがリリース
                                                                    • [備忘録] Google Colabで30行!Qwen3-Embedding-0.6Bで日本語テキスト類似度計算 - Qiita

                                                                      はじめに 最新のテキスト埋め込みモデル「Qwen3-Embedding-0.6B」を使って、日本語のテキスト類似度計算を30行のコードで試してみました。寿司をテーマにした実例で、Google Colab上ですぐに試せる実装を紹介します。備忘録します。 Qwen3-Embedding-0.6Bとは? Qwen3-Embedding-0.6Bは、Alibaba Cloudが開発した最新のテキスト埋め込みモデルで、日本語を含む100以上の言語に対応しています。0.6Bというコンパクトなパラメータ数ながら、MTEBベンチマークで高い性能を発揮し、最大32,000トークンの長文にも対応できるのが特長です。 実装 以下のコードをGoogle Colabで確認しました。 from sentence_transformers import SentenceTransformer, util # モデル読み

                                                                        [備忘録] Google Colabで30行!Qwen3-Embedding-0.6Bで日本語テキスト類似度計算 - Qiita
                                                                      • PCやスマートフォンのUIを認識して自動操作できる視覚言語モデル「Qwen2.5 VL」をAlibabaのAI研究チームがリリース、GPT-4o超えの性能で航空券の予約などを自動で実行可能

                                                                        Alibaba CloudのAI研究チームであるQwenが、視覚言語モデル「Qwen2.5 VL」をリリースしました。Qwen2.5 VLは画像に含まれる被写体の種類を認識したり文字を書き起こしたりできるだけでなく、PCやスマートフォンのUIを認識して自動操作することもできます。 Qwen2.5 VL! Qwen2.5 VL! Qwen2.5 VL! | Qwen https://qwenlm.github.io/blog/qwen2.5-vl/ 🎉 恭喜发财🧧🐍 As we welcome the Chinese New Year, we're thrilled to announce the launch of Qwen2.5-VL , our latest flagship vision-language model! 🚀 💗 Qwen Chat: https://t.co

                                                                          PCやスマートフォンのUIを認識して自動操作できる視覚言語モデル「Qwen2.5 VL」をAlibabaのAI研究チームがリリース、GPT-4o超えの性能で航空券の予約などを自動で実行可能
                                                                        • Qwen2.5とDeepSeek R1を利用した日本語大規模言語モデル「Qwen2.5 Bakeneko 32B」シリーズを公開|rinna株式会社

                                                                          ホーム ニュース Qwen2.5とDeepSeek R1を利用した日本語大規模言語モデル「Qwen2.5 Bakeneko 32B」シリーズを公開 DeepSeek R1を用いた蒸留学習により効率よく日本語思考能力を強化 rinna株式会社 (本社:東京都渋谷区/代表取締役:宋 珠憲、以下rinna) は、Qwen2.5とDeepSeek R1を利用し、高い日本語テキストの生成能力を持った「Qwen2.5 Bakeneko 32B」シリーズを開発し、Apache-2.0 Licenseで公開したことを発表します。 ■ rinnaのモデル公開活動 これまでにrinnaでは、日本語のタスクに適したGPT・BERT・HuBERT・CLIP・Stable Diffusionなど、テキスト・音声・画像に関する基盤モデルを公開してきました。2021年4月からHugging Faceに公開してきたrin

                                                                            Qwen2.5とDeepSeek R1を利用した日本語大規模言語モデル「Qwen2.5 Bakeneko 32B」シリーズを公開|rinna株式会社
                                                                          • 自律AIたちが議論する環境「TinyTroupe」をMicrosoftが開発、GPT-4o級のコーディングができるオープンソースAI「Qwen2.5-Coder」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                                            2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 Google DeepMindは、タンパク質構造予測モデル「AlphaFold3」の基盤となるコードをオープンソース化しました。AlphaFold3の開発者は、2024年のノーベル化学賞を受賞したことで知られています。 Googleは、「Gemini-Exp-1114」をリリースしました。性能が高く、業界標準のリーダーボード(Chatbot Arena)で総合ランキング1位を獲得しました。 OpanAIは、ChatGPTがデスクトップPCでも気軽に使えるように、macOS版に加えてWindows版のアプリケーションをリリースしました。 さて、この1週間の気になる生成AI技術・研究をいくつかピックアップして解説する「生成AIウィークリー」(第72回)

                                                                              自律AIたちが議論する環境「TinyTroupe」をMicrosoftが開発、GPT-4o級のコーディングができるオープンソースAI「Qwen2.5-Coder」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                                            • ClineとローカルLLMを用いたNext.jsアプリ開発に挑戦〜Qwen2.5-Coder-32B-Instructを使ってみた(後編)〜

                                                                              1. Ubuntu 24.04.1 LTS (Core i5-8400 + メインメモリ 16GB) 2. Mac Studio (M2 Ultra 128GB) # ollama server 概要 前回の記事に引き続き、Qwen2.5-Coder-32B-Instruct を用いて、アプリ開発がどの程度出来るかを検証していきたいと思います。 以下のように前編と後編に分けて記事にしました。 前編(前回の記事) Shaberi3 ベンチマーク評価 Open WebUI を用いた html + css + javascript の簡単なアプリ OSS 版 Bolt.new 後編(今回の記事) API や DB 機能具備した Next.js アプリ ということで、今回は前回に比べてもう少し複雑なアプリ開発に挑戦しようと思います。 具体的にはAPI 機能と DB 機能を有した初歩的な Next.

                                                                                ClineとローカルLLMを用いたNext.jsアプリ開発に挑戦〜Qwen2.5-Coder-32B-Instructを使ってみた(後編)〜
                                                                              • ComfyUIでFP8/GGUF版のQwen-Imageを試す(要VRAM 12~16GB)|まゆひらa

                                                                                Last update 8-7-2025 ※ (8-16-2025) VRAM 12GBの環境でFP8版の動作を確認しました。VRAM(占有GPUメモリ)をできるだけ空けてください。また、一部の起動オプションは問題を起こす可能性があります。 ※ (8-13-2025) Qwen-Image-Lightning等を利用する記事を公開しました。かなりの高速化になるので、ぜひお試しください。 ※ 関連記事は、ComfyUIの記事一覧にまとめてあります。 ■ 0. 概要▼ 0-0. はじめに 本記事では、ComfyUIで「Qwen-Image」を利用するための手順を説明します。モデルはFP8版とGGUF版を利用します。 ComfyUIのインストール方法は、下記の記事をご覧ください。 ▼ 0-1. Qwen-Imageについて Qwen-Imageは、Alibabaが開発しているQwenファミリーの

                                                                                  ComfyUIでFP8/GGUF版のQwen-Imageを試す(要VRAM 12~16GB)|まゆひらa
                                                                                • WSL2でDeepSeek-R1-Distill-Qwen-32B-Japaneseをllama.cppで試してみる|noguchi-shoji

                                                                                  株価を暴落させているDeepSeekの蒸溜モデルをCyberAgentさんが追加学習したモデルであるDeepSeek-R1-Distill-Qwen-32B-Japanese。これをmomongaさんが量子化したモデル、を試してみます。 momongaさん、ありがとうございます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeForce RTX™ 4090 (24GB) ※外付け ・OS: Ubuntu22.04 on WSL2(Windows 11) です。 1. llama.cppのセットアップllama-cpp-pyth

                                                                                    WSL2でDeepSeek-R1-Distill-Qwen-32B-Japaneseをllama.cppで試してみる|noguchi-shoji

                                                                                  新着記事