步骤 3:生成 .csv 格式的 STAT 导入文件
获得关键字和市场列表后,就可以准备批量上传到 STAT 了。使用链接中提供的模板创建一个包含以下字段的 .csv 文件:
项目:新 STAT 项目或现有项目的名称。
文件夹:新文件夹的名称,或现有文件夹的名称。(这是可选列,可以留空。)
网站:您要跟踪的网站的域名。请注意,出于我们的目的,您可以在此处输入要跟踪的任何 URL。前 20 名报告将包含目标关键字的所有排名 URL,即使它们未列在您的“网站”列中。
关键词:您添加的搜索查询。
标签:输入任意数量的关键字标签,以逗号分隔。我使用“城市”和“附近”作为标签来区分查询类型。(这是可选列,您可以留空。)
市场:定您想要跟踪关键字的市场(国家和语言)。我使用“US-en”表示美国英语。
位置:指定城市、州、省、邮政编码和/或邮政编码。我使用了“city, st”格式的城市和州列表。
设备:选择您想要的是台式机还是智能手机结果。我选择了两者。
每个市场、位置和设备类型都会增加您必须跟踪的关键字数量。我的导入文件中最终有 1,256 个关键字(314 个市场 X 2 个关键字 X 2 个设备)。
文件完成后,您可以导入到 STAT 并开始跟踪。
步骤 4:在 STAT 中针对所有关键字运行 Top 20 报告
STAT 内置的Google SERP Top 20 对比报告会以不同的时间间隔(每日、每周、每月等)捕获每个 SERP 的前 20 个自然结果,以查看随时间的变化。我不需要每日数据,因此我只是让它连续两天运行,并删除我不需要的数据。我每季度重新运行同一份报告,以跟踪随时间的变化。
观看下面的视频来了解如何设置此报告!
我的 1,256 个关键词每天生成超过 25,000 行数据。每行都是不同的自然列表,包括关键词、每月搜索量、排名(包括本地包)、基本排名(不包括本地包)、排名 URL 的 https/http 协议、排名 URL 和您的标签。
以下是 CSV 格式的原始输出示例:
很容易看出这些数据本身有多么有用,但是当我们清理它并开始抓取排名 URL 时,它会变得更加强大。
步骤 5:清理并规范化 STAT URL 数据
此时,您可能已经花费了 1-2 个小时来收集初始数据。此步骤耗时更多,但数据清 阿根廷手机号码数据 理可让您运行更高级的分析并在 Screaming Frog 中发现更多有用的见解。
以下是我对 STAT 排名数据所做的更改,为 Screaming Frog 和 Power BI 中的下一步做准备。您最终会得到多列 URL。每个 URL 稍后都会发挥作用。
将“排名 URL”列复制到名为“规范化 URL”的新列。
使用 Excel 的文本转列工具从规范化 URL 字段中删除 URL 参数,并用“?”分隔。我删除了包含 URL 参数的新列,因为它们对我的分析没有帮助。
将新的、干净的标准化 URL 列复制到名为 TLD 的新列。使用 TLD 列上的文本到列工具,并用“/”分隔以删除除域名和子域之外的所有内容。删除新列。我选择将子域保留在我的 TLD 列中,但如果这有助于您的分析,您可以将其删除。
最后,再创建一个名为“完整 URL”的列,该列最终将成为您在 Screaming Frog 中抓取的 URL 列表。要生成完整 URL,只需使用Excel 的连接函数将“协议”和“规范化 URL”列组合起来。您的公式将如下所示:在有效的 URL 字符串中。