github-explorer

安装量: 168
排名: #5143

安装

npx skills add https://github.com/blessonism/github-explorer-skill --skill github-explorer
GitHub Explorer — 项目深度分析
Philosophy
README 只是门面,真正的价值藏在 Issues、Commits 和社区讨论里。
Workflow
[项目名] → [1. 定位 Repo] → [2. 多源采集] → [3. 分析研判] → [4. 结构化输出]
Phase 1: 定位 Repo
web_search
搜索
site:github.com
确认完整 org/repo
search-layer
(Deep 模式 + 意图感知)补充获取社区链接和非 GitHub 资源:
python3 skills/search-layer/scripts/search.py
\
--queries
" review"
" 评测 使用体验"
\
--mode
deep
--intent
exploratory
--num
5
web_fetch
抓取 repo 主页获取基础信息(README、Stars、Forks、License、最近更新)
Phase 2: 多源采集(并行)
⚠️ GitHub 页面抓取规则(强制)
:GitHub repo 页面是 SPA(客户端渲染),
web_fetch
只能拿到导航栏壳子,
禁止用 web_fetch 抓 github.com 的 repo 页面
。一律使用 GitHub API:
README:
curl -s -H "Authorization: token {PAT}" -H "Accept: application/vnd.github.v3.raw" "https://api.github.com/repos/{owner}/{repo}/readme"
Repo 元数据:
curl -s -H "Authorization: token {PAT}" "https://api.github.com/repos/{owner}/{repo}"
Issues:
curl -s -H "Authorization: token {PAT}" "https://api.github.com/repos/{owner}/{repo}/issues?state=all&sort=comments&per_page=10"
Commits:
curl -s -H "Authorization: token {PAT}" "https://api.github.com/repos/{owner}/{repo}/commits?per_page=10"
File tree:
curl -s -H "Authorization: token {PAT}" "https://api.github.com/repos/{owner}/{repo}/git/trees/{branch}?recursive=1"
PAT 见 TOOLS.md。
以下来源
按需检查
,有则采集,无则跳过:
来源
URL 模式
采集内容
建议工具
GitHub Repo
github.com/{org}/{repo}
README、About、Contributors
web_fetch
GitHub Issues
github.com/{org}/{repo}/issues?q=sort:comments
Top 3-5 高质量 Issue
browser
中文社区
微信/知乎/小红书
深度评测、使用经验
content-extract
技术博客
Medium/Dev.to
技术架构分析
web_fetch
/
content-extract
讨论区
V2EX/Reddit
用户反馈、槽点
search-layer
(Deep 模式)
search-layer 调用规范
search-layer v2 支持意图感知评分。github-explorer 场景下的推荐用法:
场景
命令
说明
项目调研(默认)
python3 skills/search-layer/scripts/search.py --queries " review" " 评测" --mode deep --intent exploratory --num 5
多查询并行,按权威性排序
最新动态
python3 skills/search-layer/scripts/search.py " latest release" --mode deep --intent status --freshness pw --num 5
优先新鲜度,过滤一周内
竞品对比
python3 skills/search-layer/scripts/search.py --queries " vs " " alternatives" --mode deep --intent comparison --num 5
对比意图,关键词+权威双权重
快速查链接
python3 skills/search-layer/scripts/search.py " official docs" --mode fast --intent resource --num 3
精确匹配,最快
社区讨论
python3 skills/search-layer/scripts/search.py " discussion experience" --mode deep --intent exploratory --domain-boost reddit.com,news.ycombinator.com --num 5
加权社区站点
意图类型速查
factual
(事实) /
status
(动态) /
comparison
(对比) /
tutorial
(教程) /
exploratory
(探索) /
news
(新闻) /
resource
(资源定位)
不带
--intent
时行为与 v1 完全一致(无评分,按原始顺序输出)。
降级规则:Exa/Tavily 任一 429/5xx → 继续用剩余源;脚本整体失败 → 退回
web_search
单源。
抓取降级与增强协议 (Extraction Upgrade)
当遇到以下情况时,
必须
web_fetch
升级为
content-extract
域名限制
:
mp.weixin.qq.com
,
zhihu.com
,
xiaohongshu.com
结构复杂
页面包含大量公式 (LaTeX)、复杂表格、或
web_fetch
返回的 Markdown 极其凌乱。
内容缺失
:
web_fetch
因反爬返回空内容或 Challenge 页面。
调用方式:
python3 skills/content-extract/scripts/content_extract.py
--url
<
URL
>
content-extract 内部会:
先检查域名白名单(微信/知乎等),命中则直接走 MinerU
否则先用
web_fetch
探针,失败再 fallback 到 MinerU-HTML
返回统一 JSON 合同(含
ok
,
markdown
,
sources
等字段)
Phase 3: 分析研判
基于采集数据进行判断:
项目阶段
早期实验 / 快速成长 / 成熟稳定 / 维护模式 / 停滞(基于 commit 频率和内容)
精选 Issue 标准
评论数多、maintainer 参与、暴露架构问题、或包含有价值的技术讨论
竞品识别
从 README 的 "Comparison"/"Alternatives" 章节、Issues 讨论、以及 web 搜索中提取 Phase 4: 结构化输出 严格按以下模板输出, 每个模块都必须有实质内容或明确标注"未找到" 。 排版规则(强制) 标题必须链接到 GitHub 仓库 (格式:

Project Name

,确保可点击跳转) 标题前后都统一空行 (上一板块结尾 → 空行 → 标题 → 空行 → 内容,确保视觉分隔清晰) Telegram 空行修复(强制) :Telegram 会吞掉列表项( - 开头)后面的空行。解决方案:在列表末尾与下一个标题之间,插入一行盲文空格 ⠀ (U+2800),格式如下: - 列表最后一项 ⠀ 下一个标题 这确保在 Telegram 渲染时标题前的空行不被吞掉。 所有标题加粗 (emoji + 粗体文字) 竞品对比必须附链接 (GitHub / 官网 / 文档,至少一个) 社区声量必须具体 :引用具体的帖子/推文/讨论内容摘要,附原始链接。不要写"评价很高"、"热度很高"这种概括性描述,要写"某某说了什么"或"某帖讨论了什么具体问题" 信息溯源原则 :所有引用的外部信息都应附上原始链接,让读者能追溯到源头

{Project Name}
**
🎯 一句话定位
**
{是什么、解决什么问题}
**
⚙️ 核心机制
**
{技术原理/架构,用人话讲清楚,不是复制 README。包含关键技术栈。}
**
📊 项目健康度
**
-
**
Stars
**
{数量} |
**
Forks
**
{数量} |
**
License
**

{类型}

**
团队/作者
**

{背景}

**
Commit 趋势
**

{最近活跃度 + 项目阶段判断}

**
最近动态
**
{最近几条重要 commit 概述}
**
🔥 精选 Issue
**
{Top 3-5 高质量 Issue,每条包含标题、链接、核心讨论点。如无高质量 Issue 则注明。}
**
✅ 适用场景
**
{什么时候该用,解决什么具体问题}
**
⚠️ 局限
**
{什么时候别碰,已知问题}
**
🆚 竞品对比
**
{同赛道项目对比,差异点。每个竞品必须附 GitHub 或官网链接,格式示例:}
-
**
vs
[
GraphRAG
](
https://github.com/microsoft/graphrag
)
**
— 差异描述
-
**
vs
[
RAGFlow
](
https://github.com/infiniflow/ragflow
)
**
— 差异描述
**
🌐 知识图谱
**
-
**
DeepWiki
**

{链接或"未收录"}

**
Zread.ai
**
{链接或"未收录"}
**
🎬 Demo
**
{在线体验链接,或"无"}
**
📄 关联论文
**
{arXiv 链接,或"无"}
**
📰 社区声量
**
**
X/Twitter
**
{具体引用推文内容摘要 + 链接,格式示例:}
-
[
@某用户
](
链接
)

"具体说了什么..."

[
某讨论串
](
链接
)
讨论了什么具体问题... {如未找到则注明"未找到相关讨论"} ** 中文社区 ** {具体引用帖子标题/内容摘要 + 链接,格式示例:} - 知乎: 帖子标题 — 讨论了什么 - V2EX: 帖子标题 — 讨论了什么 {如未找到则注明"未找到相关讨论"} ** 💬 我的判断 ** {主观评价:值不值得投入时间,适合什么水平的人,建议怎么用} Execution Notes 优先使用 web_search + web_fetch ,browser 作为备选 搜索增强 :项目调研类任务默认使用 search-layer v2 Deep 模式 + --intent exploratory (Brave + Exa + Tavily 三源并行去重 + 意图感知评分),单源失败不阻塞主流程 抓取降级(强制) :当 web_fetch 失败/403/反爬页/正文过短,或来源域名属于高风险站点(如微信/知乎/小红书)时:改用 content-extract (其内部会 fallback 到 MinerU-HTML),拿到更干净的 Markdown + 可追溯 sources 并行采集不同来源以提高效率 所有链接必须真实可访问,不要编造 URL 中文输出,技术术语保留英文 ⚠️ 输出自检清单(强制,每次输出前逐条核对) 输出报告前, 必须逐条检查以下项目 ,全部通过才可发送: 标题链接 :

Project Name

格式,可点击跳转 标题空行 :每个粗体标题( 🎯 ... )前后各有一个空行 Telegram 空行 :每个列表块末尾与下一个标题之间有盲文空格 ⠀ 行(防止 Telegram 吞空行) Issue 链接 :精选 Issue 每条都有完整 #号 标题 格式 竞品链接 :每个竞品都附 名称 社区声量链接 :每条引用都有 来源: 标题 格式 无空泛描述 :社区声量部分没有"评价很高"、"热度很高"等概括性描述 信息溯源 :所有外部引用都附原始链接 Dependencies 本 Skill 依赖以下 OpenClaw 工具和 Skills: 依赖 类型 用途 web_search 内置工具 Brave Search 检索 web_fetch 内置工具 网页内容抓取 browser 内置工具 动态页面渲染(备选) search-layer Skill 多源搜索 + 意图感知评分(Brave + Exa + Tavily + Grok),v2.1 支持 --intent / --queries / --freshness content-extract Skill 高保真内容提取(反爬站点降级方案)

返回排行榜