Skip to content

Instantly share code, notes, and snippets.

@hand-dot
Created January 29, 2026 04:59
Show Gist options
  • Select an option

  • Save hand-dot/bf6f928dce14095d5eef4f6aae63275e to your computer and use it in GitHub Desktop.

Select an option

Save hand-dot/bf6f928dce14095d5eef4f6aae63275e to your computer and use it in GitHub Desktop.
claude-code-skills
name description
neta-trend-daily
トレンドネタ収集

トレンドネタ収集

はてなブックマークIT人気エントリーとHacker Newsの人気記事を収集し、ideas/daily/YYYYMMDD-trend.md に保存する。

実行手順

0. ユーザープロファイル読み込み

CLAUDE.md を読み込み、以下の興味領域を理解する:

  • AI(開発とセキュリティへの応用)
  • Webセキュリティ/ハッキング(OWASP、脆弱性、サプライチェーン攻撃)
  • OSS開発/コミュニティ
  • 個人開発/SaaS運営(Technical SEO、グロースハック、収益化)
  • キャリア/人生哲学(経済的自由、外資転職、Build in Public)
  • JavaScript/TypeScript技術スタック

1. トレンド情報の収集

以下のサイトから最新のトレンド情報を取得:

日本市場(はてブIT)

グローバル(Hacker News)

  • https://news.ycombinator.com/
  • 各記事のタイトル、HNコメントページURL(https://news.ycombinator.com/item?id=XXXXX形式)、ポイント数を取得
  • 元記事URLではなくHNのコメントページURLを使用すること(コメントも確認できるようにするため)
  • タイトルは日本語に翻訳して出力

セキュリティ(追加ソース)

  • https://www.aikido.dev/blog - セキュリティ研究開発者向けのセキュリティ情報
  • https://www.wiz.io/blog - クラウドセキュリティ
  • 最新1-3記事をチェックし、興味度★★★のものがあれば注目トピックに含める

Reddit(13サブレッド)

  • 重要: WebFetchツールはreddit.comをブロックするため、Bashツールでcurlコマンドを使用すること
  • 各サブレッドから /hot.json?t=day&limit=10 で上位10件を取得
  • old.reddit.comを使用(www.reddit.comではない
  • User-Agentヘッダーを設定: "User-Agent: neta-trend-collector/1.0 (trend analysis tool)"
  • 各記事のタイトル、Redditコメントページの完全URL、投票数(ups)、コメント数を取得
  • タイトルは日本語に翻訳して出力

取得例(Bashツールで実行):

curl -s -H "User-Agent: neta-trend-collector/1.0 (trend analysis tool)" \
  "https://old.reddit.com/r/programming/hot.json?t=day&limit=10" | \
  jq -r '.data.children[] | "\(.data.title)|\(.data.ups)|\(.data.num_comments)|https://www.reddit.com\(.data.permalink)"'

データ構造:

  • data.children[].data.title: タイトル
  • data.children[].data.ups: 投票数
  • data.children[].data.num_comments: コメント数
  • data.children[].data.permalink: パス(https://www.reddit.com + permalink で完全URL)

セキュリティ系(2サブレッド):

  • r/netsec
  • r/cybersecurity

AI系(3サブレッド):

  • r/OpenAI
  • r/LocalLLaMA
  • r/ClaudeCode

コア技術系(2サブレッド):

  • r/programming
  • r/technology

OSS/個人開発系(4サブレッド):

  • r/opensource
  • r/indiehackers
  • r/webdev
  • r/javascript

キャリア/実践系(2サブレッド):

  • r/cscareerquestions
  • r/productivity

2. 分析

収集した情報を以下の観点で分析:

興味領域マッチング(最優先)

  • 各記事を興味領域と照合し、関連度を評価
  • 高関連度の記事を「注目トピック」の最上位に配置
  • 特に注目すべきトピック:
    • AI関連(開発ツール、セキュリティ、倫理)
    • セキュリティ関連(脆弱性、攻撃手法、防御策)
    • OSS/個人開発関連(成功事例、マーケティング、収益化)
    • キャリア関連(外資転職、リモートワーク、副業)
    • JavaScript/TypeScript関連(新技術、ツール、フレームワーク)

はてブIT

  • 日本のエンジニアに刺さりやすい話題
  • 議論を呼びそうなトピック
  • 技術トレンド(AI、開発手法、ツール等)
  • キャリア・働き方関連

Hacker News

  • グローバルで話題の技術トレンド
  • スタートアップ・プロダクト関連
  • セキュリティ関連(脆弱性、攻撃手法、インシデント)
  • 議論を呼んでいるトピック(ポイント数が高い)

Reddit(13サブレッド)

  • セキュリティ系:最新の脅威、実践的な攻撃・防御手法
  • AI系:OpenAI、ローカルLLM、Claude Code関連
  • OSS/個人開発系:OSSプロジェクト、個人開発、Web開発
  • キャリア/実践系:キャリア、生産性
  • 投票数(ups)とコメント数でコミュニティの反応を評価
  • 議論が活発なトピック(コメント数が多い)を優先

3. 出力

まず「ネタ収集完了。」というメッセージを返してから、結果を ideas/daily/YYYYMMDD-trend.md に保存。

以下のフォーマットで出力:

# トレンドネタ: YYYY-MM-DD

## はてブIT(日本市場)

### 注目トピック

| タイトル | ブクマ数 | 興味度 | カテゴリ | メモ |
|---------|---------|--------|---------|------|
| [タイトル](元記事URL) | XXX users | ★★★/★★/★ | AI/開発/キャリア等 | 発信に活用できるポイント |

**興味度の定義**:
- ★★★: 興味領域に直接関連(AI×セキュリティ、OSS、個人開発、キャリアなど)
- ★★: 間接的に関連(技術トレンド全般、エンジニアリング文化)
- ★: 一般的なIT/技術ニュース

### 全エントリー

1. [タイトル](元記事URL) (XXX users) - 概要
2. ...

## Hacker News(グローバル)

### 注目トピック

| タイトル | ポイント | 興味度 | カテゴリ | メモ |
|---------|---------|--------|---------|------|
| [タイトル](HNコメントページURL) | XXXpt | ★★★/★★/★ | AI/Security/Dev等 | 発信に活用できるポイント |

### 全エントリー

1. [タイトル](HNコメントページURL) (XXXpt) - 概要
2. ...

## Reddit(13サブレッド)

### 注目トピック

| タイトル | 投票数 | コメント数 | 興味度 | カテゴリ | サブレッド | メモ |
|---------|--------|-----------|--------|---------|-----------|------|
| [タイトル](Redditコメントページ完全URL) | XXX ups | XXX | ★★★/★★/★ | Security/AI/OSS等 | r/subreddit | 発信に活用できるポイント |

### カテゴリ別エントリー

#### セキュリティ系
1. [タイトル](RedditコメントページURL) (XXX ups, XXX comments) - r/netsec - 概要
2. ...

#### AI系
1. [タイトル](RedditコメントページURL) (XXX ups, XXX comments) - r/OpenAI - 概要
2. ...

#### OSS/個人開発系
1. [タイトル](RedditコメントページURL) (XXX ups, XXX comments) - r/opensource - 概要
2. ...

#### キャリア/実践系
1. [タイトル](RedditコメントページURL) (XXX ups, XXX comments) - r/cscareerquestions - 概要
2. ...

注意事項

  • WebFetchツールを使用して情報を取得
  • すべての記事にURLリンクを必ず含める(リンクなしは不可)
  • はてブは元記事のURLを必ず取得(はてブページURLではなく)
  • Hacker NewsはHNコメントページURL(item?id=形式)を使用(元記事URLではなく)
  • Hacker Newsのタイトルは日本語に翻訳
  • RedditはRedditコメントページの完全URL(https://www.reddit.com/r/subreddit/comments/...形式)を使用
  • Redditのタイトルは日本語に翻訳
  • Reddit APIレート制限に注意(1分あたり60リクエスト程度)
  • 投票数(ups)/コメント数が高い記事を優先
  • ポイント数/ブックマーク数が高い記事は特に注目
  • 出力ファイルのYYYYMMDDは実行日の日付を使用
name description
url-digest
URL要約

URL要約

複数のURLを読み取り、コアメッセージがわかるように要約する。

入力形式

ユーザーからURLが1つ以上渡される。URLは改行区切りまたはスペース区切りで提供される。

実行手順

1. URL種別判定

渡されたURLを以下のカテゴリに分類:

通常記事:

  • 上記以外のURL
  • 直接WebFetchで取得

X (Twitter) (x.com/* または twitter.com/*):

  • JavaScriptが必要なためWebFetchでは取得不可
  • ブラウザ自動化ツール(claude-in-chrome)を使用

Hacker News (news.ycombinator.com/item?id=XXX):

  • コメントページから元記事URLを取得
  • 元記事とコメントの両方を分析

Reddit (reddit.com/r/*/comments/* または www.reddit.com/r/*/comments/*):

  • curlでJSON形式で取得(WebFetchはreddit.comをブロック)
  • 元記事とコメントの両方を分析

2. コンテンツ取得

通常記事

WebFetchツールで内容を取得:

  • タイトルと本文を抽出
  • コアメッセージを要約

X (Twitter)

JavaScriptレンダリングが必要なため、ブラウザ自動化ツールを使用:

  1. ブラウザセッション準備:

    • tabs_context_mcpでタブ情報を取得(createIfEmpty: true
    • tabs_create_mcpで新しいタブを作成
  2. ページ取得:

    • navigateツールでX.comのURLに移動
    • ページ読み込み完了まで待機(computerツールのwaitアクション、2-3秒)
  3. コンテンツ抽出:

    • get_page_textでツイート本文を取得
    • またはread_pageでアクセシビリティツリーから構造化データを取得
  4. 抽出する情報:

    • ツイート本文
    • 投稿者名・ハンドル
    • 画像/動画の有無(あれば内容を説明)
    • リプライ・引用がある場合はその文脈

Hacker News

  1. HNコメントページ取得:

    • Hacker News Algolia APIを使用: https://hn.algolia.com/api/v1/items/{item_id}
    • item_idはURLから抽出(item?id=XXXXXのXXXXX部分)
    curl -s "https://hn.algolia.com/api/v1/items/{item_id}" | jq '.'

    データ構造:

    • title: 記事タイトル
    • url: 元記事URL(nullの場合はHN投稿自体が本文)
    • points: ポイント数
    • children: コメントの配列(各コメントは text フィールドを持つ)
  2. 元記事取得:

    • urlフィールドが存在する場合、WebFetchで元記事を取得
    • urlがnullの場合、textフィールドが本文
  3. コメント分析:

    • children配列から上位5件程度のコメントを確認
    • 興味深いインサイト、反論、追加情報を抽出

Reddit

重要: 投稿情報とコメントは別々のjqクエリで取得すること(一度に取得するとjqエラーになる)

  1. 投稿情報の取得:

    curl -s -H "User-Agent: url-digest/1.0" \
      "https://old.reddit.com/r/{subreddit}/comments/{post_id}.json" \
      | jq '.[0].data.children[0].data | {title, url, selftext, is_self}'
  2. コメントの取得(別クエリで実行):

    curl -s -H "User-Agent: url-digest/1.0" \
      "https://old.reddit.com/r/{subreddit}/comments/{post_id}.json" \
      | jq '[.[1].data.children[:8][].data | select(.body) | {body: .body[0:500], score}]'

    注意: select(.body != null)は使わない(感嘆符がシェルでエスケープされるため)。select(.body)を使う。

  3. 元記事取得:

    • urlフィールドが外部URLの場合、WebFetchで元記事を取得
    • 自己投稿(is_self: true)の場合、selftextが本文
  4. コメント分析:

    • 上位コメントから興味深いインサイト、反論、追加情報を抽出

3. 要約生成

各URLについて以下を生成:

タイトル:

  • 記事の元タイトル
  • 英語の場合は日本語に翻訳

要約:

  • コアメッセージを3-5行で要約
  • 何が重要なのか、なぜ注目に値するのかを明確に
  • HN/Redditの場合は以下も含める:
    • コミュニティの反応(賛否、議論のポイント)
    • 興味深いコメントからのインサイト
    • 補足情報や反論

URL:

  • 入力されたURL(HN/Redditの場合はそのまま)

4. 出力

まず「要約完了。」というメッセージを返してから、結果をファイルに保存。

ファイル出力

ideas/daily/YYYYMMDD-digest.md に保存(YYYYMMDDは実行日)。

フォーマット

# URL Digest: YYYY-MM-DD

---

## [記事タイトル]

要約本文。コアメッセージを3-5行で記述。
HN/Redditの場合はコミュニティの反応やインサイトも含める。

URL

---

## [記事タイトル2]

要約本文。

URL

---

注意事項

  • すべての記事にURLを必ず含める
  • 英語タイトルは日本語に翻訳
  • HN/Redditは元記事とコメントの両方を確認(これが重要)
  • X.comはブラウザ自動化ツールを使用(WebFetchではJSレンダリング不可)
  • Redditはcurlを使用(WebFetchはブロックされる)
  • Reddit APIレート制限に注意(1分あたり60リクエスト程度)
  • 要約は簡潔に、核心を突く内容で
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment