技術性SEO入門指南

內容

目錄

什麼是技術性SEO?

技術性SEO是指幫助搜索引擎找到、爬取、理解和索引您的網頁的搜索引擎優化。其目標是被找到並提高排名。

技術性SEO有多複雜?

這取決於情況。基本原理並不難掌握,但技術性SEO可能會很複雜,難以理解。在這個指南中,我會盡量保持簡單。

在這一章中,我們將介紹如何確保搜索引擎能夠有效地爬取您的內容。

爬蟲的運作原理

爬蟲是指搜索引擎從網頁上抓取內容,並利用其中的鏈接來尋找更多的網頁。您可以通過幾種方式來控制搜索引擎對您網站上的內容進行爬取。以下是一些選項。

Robots.txt

一個 robots.txt 檔案告訴搜索引擎他們在您的網站上可以和不能去的地方。

你知道嗎?

Google 可能會索引無法爬取的頁面,如果有連結指向這些頁面。這可能會讓人感到困惑,但如果你想要防止頁面被索引,可以查看這個指南和流程圖,它可以引導你完成整個過程。

爬蟲速率

robots.txt 中有一個 crawl-delay 指令,許多爬蟲程式都支援。它可以讓你設定爬蟲程式爬取網頁的頻率。不過,Google 不遵守這個設定。1 若要調整 Google 的爬取速率,你需要在 Google 搜尋控制台中進行更改。2

存取限制

如果您希望該頁面對某些用戶可訪問,但對搜索引擎不可訪問,那麼您可能需要以下三個選項中的一個:

  • 一種登錄系統
  • HTTP 認證(需要密碼才能訪問)
  • IP 白名單(僅允許特定 IP 地址訪問頁面)

這種設置最適合內部網絡、僅限會員的內容,或者用於分期、測試或開發網站。它允許一組用戶訪問頁面,但搜索引擎將無法訪問該頁面,也不會對其進行索引。

總結
Technical SEO is about optimizing websites to help search engines find, crawl, understand, and index pages. It can be complex, but the basics are not difficult to master. Crawling involves search engines grabbing content from pages and using links to find more pages. Control crawling with robots.txt, crawl rate, and access restrictions. Google Search Console's 'Crawl stats' report shows what Google is crawling. Each website has a different crawl budget, and signs of stress can slow or stop crawling. After crawling, pages are rendered and sent to the index. Canonicalization selects the canonical URL for indexing. Prioritize projects like checking indexability, reclaiming lost links, adding internal links, and adding schema markup. Page experience signals, including Core Web Vitals, are important for user experience. These projects may require more work but have less benefit than quick win projects.