2026年4月24日 はてな[3930]の開示資料「資金流出事案の発生に関するお知らせ」 が閲覧できます。資料はPDFでダウンロードできます
こんな方にオススメ データ活用のために、データ分析基盤の開発に携わっているエンジニア クラウド、機械学習/AIをはじめ、データ分析基盤&データマネージメントにまつわる実践知識をアップデートしたい方々 データ分析基盤を利用して分析を行い、より良いデータ活用環境を実現したいとお考えのユーザーの方々 データ分析基盤に関心をお持ちのインフラエンジニア、プログラマ、データ分析者 目次 第1章 データ分析基盤への招待 データ分析基盤の大枠を知ろう 1.1 データ分析基盤と技術ランドスケープ プラットフォームを支える群雄割拠のツールたち 1.2 データ分析システムとデータ分析基盤 システムとプラットフォームの違いを理解しよう 1.3 本章のまとめ 第2章 ローカル端末で学ぶデータ分析基盤 ローカルのデータ分析基盤を利用して理解を促進しよう 2.1 データ分析基盤の基本型 基本的な構成パターンの紹介 2.
Ars legendi-faculty award (2020) of the Stifterverband, the German Physical Society (DPG) and others In 2020 the Ars legendi-faculty award was given to Prof. Heidrun Heinke, Dr. Sebastian Staacks and Prof. Christoph Stampfer for the development of phyphox and its lasting effect for academic teaching and physics classes at school. This award is selected by the Stifterverband, the German Mathematica
2026年4月2日、Google DeepMindがGemma 4をApache 2.0ライセンスで公開しました。E2B、E4B、26B MoE、31B Denseの4サイズ展開で、スマートフォンからワークステーションまでカバーします。 Reddit r/LocalLLaMAでは公開直後から大きな反響があり、Arena(旧LMSYS Chatbot Arena)のテキストリーダーボードでは31Bがオープンモデル3位(ELO 1,452)、26B MoEが6位にランクインしています。 この記事では、Gemma 4の技術的な特徴を掘り下げたうえで、手元のデバイスで動かすための具体的な手順を整理します。 Gemma 4の技術的な強み Apache 2.0ライセンス 商用利用・改変・再配布が自由なApache 2.0を採用しています。LlamaやMistralのカスタムライセンスと異なり、企業での
70Bパラメータのモデルをfp16で動かすには約140GBのVRAMが必要です。RTX 4090が6枚相当になります。クラウドGPUのレンタルも時間単価が高く、常時利用には向きません。 この余剰GPUを集約して1つの推論基盤にするのがmesh-llmの着眼点です。 技術的な仕組み:2つの並列化戦略 mesh-llmはモデルの種類を自動判定し、最適な並列化戦略を選択します。この自動選択がmesh-llmの核心であり、ユーザーは並列化方式を意識する必要がありません。 パイプライン並列(Dense Model向け) Llama系やQwen系のDenseモデルに適用される方式です。モデルのレイヤーを複数ノードに分割し、データを順番に流していきます。 データの流れは次の通りです。 入力トークンがノードA(前半レイヤー担当)に送られる ノードAが中間表現(hidden states)を計算し、ノードB
AIツールを使ったコード生成が一般化する中、Linuxカーネル開発でもAI支援コードの扱いに関する明確なルールが示されました。Linus Torvalds氏のGitHubリポジトリに公開されたドキュメントでは、AIを利用したコードを受け入れるための前提条件が整理されています。 このドキュメントによると、AIが生成したコードであっても、Linuxカーネルの開発フローにおける基本ルールは人間の場合と変わりません。 開発者はdevelopment-process.rstやcoding-style.rst、submitting-patches.rstに沿って作業し、既存のコンプライアンス要件を満たす必要があります。特にGPL-2.0-onlyとの互換性やSPDXライセンス識別子の適切な使用など、ライセンス関連のルールは厳格に適用されます。 「Signed-off-by」はAIには使えない Linu
Every Mac with Apple Silicon has a built-in LLM - Apple's on-device foundation model, shipped as part of Apple Intelligence. Apple provides the FoundationModels framework (macOS 26+) to access it, but only exposes it through Siri and system features. apfel wraps it in a CLI and an HTTP server - so you can actually use it. All inference runs on-device with no network calls for the LLM itself. Optio
128bit以上の値を持てる『UUID Long』という提案仕様がIETFに提出されています。(ただし、提案仕様は誰でも提出でき、それだけで標準化が進むものではない点に注意してください。) UUID Long UUID Longのフォーマットは次のとおりです。128bit領域は既存のUUIDと同じフォーマットであり、Variantとして0xFが入るのが特徴です。そのあとに、可変長領域 (UUID Long Data)が入ります 例としては xxxxxxxx-xxxx-xxxx-Fxxx-xxxxxxxxxxxx-yy..zz xxx: ショートUUID bit F: Variant固定値 yy...zz: 32~3968 のUUID Long Data Sub-Variant UUID Long Dataに格納されるデータは、Sub-Variant, Algorithm, Length で
マイクロソフト、ローカルAI環境をインストーラで配布できる「Foundry Local」正式リリース。MacやLinuxにも対応 マイクロソフトは、アプリケーションにバンドルしてインストーラで配布できるコンパクトなローカルAI環境「Foundry Local」の正式リリースを発表しました。 開発者はアプリケーションにFoundry LocalのAI環境をバンドルしてインストーラで配布できるため、クラウドなどに依存せず、ユーザーによる設定や追加導入なども不要な、ローカルで完結するAIソリューションをユーザーに提供できるようになります。 ハードウェアに最適化、多数のAIモデルから選択 Foundry Localは、その内部にあるAIモデルのランタイムとしてONNX RuntimeとWindows MLが利用され、その上にFoundry Catalogから選択可能なさまざまなAIモデルを載せるこ
最近のWebサービスでは、画像配信の設計を昔のままにしておくのは難しくなっています。 以前は、画像をアップロードした時に固定サイズのサムネイルをいくつか生成し、それをそのまま配信する形でも大きな問題はありませんでした。しかし今は、高精細なディスプレイを持つスマートフォンが一般的になり、同じ画像でも表示環境に応じて適切なサイズやフォーマットを選ぶ必要があります。さらに、CDNや画像最適化サービスを使えば、元画像から必要な派生画像を動的に生成してキャッシュできるようになりました。こうなると、画像配信は単なるフロントエンドの都合ではなく、サービス全体の設計の一部として考える必要があります。 私が重要だと考えているのは、次の4点です。 画像の綺麗さにおいては、qualityよりも画像サイズの方が重要であること 画像URLの設計はフロントエンドではなくバックエンドが握るべきであること 同じ画像に対し
A security scanner as fast as a linter, written in Rust. 170+ built-in rules · 10 languages · cross-file taint tracking for Python, JavaScript, Go, Kotlin · single Rust binary · Semgrep-compatible YAML bridge foxguard.dev · npm · crates.io v0.7.0 adds foxguard tui . for interactive triage — scan, diff, and secrets modes with in-app review, baseline, and ignore actions. Read the launch post. Securi
AI Agentも賢くなってきたとはいえ、ローカルで何をしでかすかわからない怖さは拭いきれない。かと言って、細かく認可を与えるのもめんどいし、ザルな見過ごしも起こりやすくなって危ないので、できればファイル・ネットワークアクセス、コマンド実行等に適切に制限をかけたサンドボックス環境で放し飼いにしたい。 CLIとして動かすAI Agentの場合、引数に指定したコマンドをサンドボックス内で動かすコマンドラッパーがあると嬉しい。自作しようかと思っていたが fence というツールがまさしくそれだったので、これを使うことにした。Goで書かれていて、macOSとLinuxをサポートしている。早速、GitHub Copilot CLIでも利用しやすいようにpull requestを送って、取り込んでもらった。 https://github.com/Use-Tusk/fence https://fence
AIの頭脳である大規模言語モデル(LLM)をローカルで動作させると、料金がかからなかったり、プライバシーを守れたりなどのメリットがあります。今回はLLMをローカルで簡単に動作させるためのツール「Lemonade」を実際にインストールして使用してみました。 Lemonade: Local AI for Text, Images, and Speech https://lemonade-server.ai/ Lemonadeを開発したのはAMDで、AMD製のハードウェア向けに徹底的にテスト・最適化が行われているとのこと。とはいえAMD以外のハードウェアでも問題なく動作するとされています。 Lemonadeのページへアクセスし、「Download」をクリック。 ダウンロードされた「lemonade.msi」をダブルクリックして実行します。 「Next」をクリック。 インストール場所を確認して「N
Orchard is a native (swift) application to manage containers on macOS using the new Containerization framework. It has been based on years of experience with Docker Desktop, but dedicated to the new containerization option. The ambition of the project is to allow it easy for developers to switch from Docker Desktop to Containers. Orchard gives you a desktop experience that complements the containe
A visual explorer for Unicode. Browse the character set, discover related glyphs, and learn more about the scripts, symbols, and shapes that make up the standard. To power visual similarity, rendered glyphs are embedded with and compared in vector space. Charcuterie is still under active development, and feedback is welcome. You can get the similarity data or support the project. Everything runs i
Compatible with Linux kernel 6.12 or newer, requires BTF kernel support Getting started Once installed, open the user interface by running littlesnitch in a terminal, or go straight to http://localhost:3031/. You can bookmark that URL, or install it as a Progressive Web App. Any Chromium-based browser supports this natively, and Firefox users can do the same with the Progressive Web Apps extension
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く