1. AIによる開発の前提知識を学ぶため「LLMのプロンプトエンジニアリング」を読んだ
LLMの特性を理解してAI開発に活用するため「LLMのプロンプトエンジニアリング」の書籍レビュー。プロンプト構造や思考の連鎖など実践的な知識が業務でのAI活用に役立つ内容。
主なトピック:
- プロンプト構造: 導入→コンテンツ→リフォーカス→移行の順序が重要
- 思考の連鎖(CoT): LLMが声に出して考えることで解決策到達が容易に
- コンテキスト内学習: プロンプト末尾の情報ほど影響が大きい
- 中間部の喪失: プロンプトの中間情報は活用困難
- その他: テキスト後戻り不可、気が散りやすい、導入が必要、etc...
2. gpt-oss の使い方
OpenAIのオープンソースモデル「gpt-oss」の詳細な使用方法。MoEアーキテクチャと4bit量子化により高性能を実現し、多様な推論環境で動作可能。
主なトピック:
- MoE(Mixture-of-Experts): 117B/21Bパラメータで効率的推論
- mxfp4量子化: 4bit量子化で大幅なメモリ削減
- Transformers/vLLM: 複数の推論プラットフォーム対応
- Flash Attention 3: 最適化されたアテンションメカニズム
- その他: ツール使用、ファインチューニング、Azure/Dell対応、etc...
- (コード例あり)
3. OpenAIのオープンモデルGPT-oss 20Bがすごすぎる
OpenAIのgpt-oss 20BをRTX4060 Ti 16GBで実際に動作検証。71token/secの高速動作とChatGPT品質の出力を実現し、コーディング能力も優秀。
主なトピック:
- 高速動作: RTX4060 Ti 16GBで71token/secを実現
- 指示追従性: システムプロンプトに素直に従う高い精度
- コーディング能力: Java Swingでのゲーム開発も可能
- LM Studio対応: GUI環境での簡単実行
- その他: Reasoning深さ設定、山口県知識、計算能力、etc...
4. OpenAIの「オープンなAI(gpt-oss-120b)」をGPUサーバーなしに30万円の自作PCで動かしてみた
※記事内容が文字化けのため詳細不明。H100不要で一般的なPCでgpt-oss-120bを動作させる検証記事と推定される。
主なトピック:
5. プロジェクトデータをCLAUDE.md及びその参照からSerenaメモリへ移動させてみた
CLAUDE.mdの参照で70000Token消費していた問題を解決するため、Serenaメモリへの移行を実施。具体的なコマンド使用法と注意点を解説。
主なトピック:
- Serenaメモリ移行: mcpserenawrite_memoryコマンド使用
- Token消費削減: CLAUDE.md参照の問題解決
- メモリ管理: memory_nameとcontentの指定方法
- 注意点: 日本語でもToken消費は変わらない
- その他: read_memory、list_memories、使用制約、etc...
6. ニフティが「個人ホームぺージ」サービス継続の姿勢を表明。このSNS時代になぜ?
ニフティが30周年記念として個人ホームページサービス継続を表明。#好きがつながるプロジェクトで情報資産保護と文化継承に取り組む。
主なトピック: