谷歌搜索引擎優化 (SEO)創建并提交 robots.txt 文件

您可以使用 robots.txt 文件控制抓取工具可以訪問您網站上的哪些文件。robots.txt 文件應位于網站的根目錄下。因此,對于網站 www.example.com,robots.txt 文件的路徑應為 www.example.com/robots.txt。robots.txt 是一種遵循漫游器排除標準的純文本文件,由一條或多條規則組成。每條規則可禁止或允許特定抓取工具抓取相應網站的指定文件路徑下的文件。除非您在 robots.txt 文件中另行指定,否則所有文件均隱式允許抓取。

下面是一個包含兩條規則的簡單 robots.txt 文件:

User-agent: Googlebot

Disallow: /nogooglebot/

User-agent: *

Allow: /

Sitemap: http://www.example.com/sitemap.xml

以下是該 robots.txt 文件的含義:

1、名為 Googlebot 的用戶代理不能抓取任何以 http://example.com/nogooglebot/ 開頭的網址。

2、其他所有用戶代理均可抓取整個網站。不指定這條規則也無妨,結果是一樣的;默認行為是用戶代理可以抓取整個網站。

3、該網站的站點地圖文件路徑為 http://www.example.com/sitemap.xml。

如需查看更多示例,請參閱語法部分。

創建 robots.txt 文件的基本準則

要創建 robots.txt 文件并使其在一般情況下具備可訪問性和實用性,需要完成 4 個步驟:

1、創建一個名為 robots.txt 的文件。

2、向 robots.txt 文件添加規則。

3、將 robots.txt 文件上傳到您的網站。

4、測試 robots.txt 文件。

創建 robots.txt 文件

您幾乎可以使用任意文本編輯器創建 robots.txt 文件。例如,Notepad、TextEdit、vi 和 emacs 可用來創建有效的 robots.txt 文件。請勿使用文字處理軟件,因為此類軟件通常會將文件保存為專有格式,且可能會向文件中添加非預期的字符(如彎引號),這樣可能會給抓取工具帶來問題。如果保存文件時出現相應系統提示,請務必使用 UTF-8 編碼保存文件。

格式和位置規則:

● 文件必須命名為 robots.txt。

● 網站只能有 1 個 robots.txt 文件。

● robots.txt 文件必須位于其要應用到的網站主機的根目錄下。例如,若要控制對 https://www.example.com/ 下所有網址的抓取,就必須將 robots.txt 文件放在 https://www.example.com/robots.txt 下,一定不能將其放在子目錄中(例如 https://example.com/pages/robots.txt 下)。如果您不確定如何訪問自己的網站根目錄,或者需要相應權限才能訪問,請與網站托管服務提供商聯系。如果您無法訪問網站根目錄,請改用其他屏蔽方法(例如元標記)。

● robots.txt 文件可應用到子網域(例如 https://website.example.com/robots.txt)或非標準端口(例如 http://example.com:8181/robots.txt)。

● robots.txt 文件必須是采用 UTF-8 編碼(包括 ASCII)的文本文件。Google 可能會忽略不屬于 UTF-8 范圍的字符,從而可能會導致 robots.txt 規則無效。

向 robots.txt 文件添加規則

規則是關于抓取工具可以抓取網站哪些部分的說明。向 robots.txt 文件中添加規則時,請遵循以下準則:

● robots.txt 文件包含一個或多個組。

● 每個組由多條規則或指令(命令)組成,每條指令各占一行。每個組都以 User-agent 行開頭,該行指定了組適用的目標。

● 每個組包含以下信息:

* 組的適用對象(用戶代理)

* 代理可以訪問的目錄或文件。

* 代理無法訪問的目錄或文件。

● 抓取工具會按從上到下的順序處理組。一個用戶代理只能匹配 1 個規則集(即與相應用戶代理匹配的比較早的最具體組)。

● 系統的默認假設是:用戶代理可以抓取所有未被 disallow 規則屏蔽的網頁或目錄。

● 規則區分大小寫。例如,disallow: /file.asp 適用于 https://www.example.com/file.asp,但不適用于 https://www.example.com/FILE.asp。

● # 字符表示注釋的開始處。

Google 的抓取工具支持 robots.txt 文件中的以下指令:

● user-agent: [必需,每個組需含一個或多個 User-agent 條目] 該指令指定了規則適用的自動客戶端(即搜索引擎抓取工具)的名稱。這是每個規則組的首行內容。Google 用戶代理列表中列出了 Google 用戶代理名稱。 使用星號 (*) 會匹配除各種 AdsBot 抓取工具之外的所有抓取工具,AdsBot 抓取工具必須明確指定。例如:

# Example 1: Block only Googlebot

User-agent: Googlebot

Disallow: /

# Example 2: Block Googlebot and Ad***ot

User-agent: Googlebot

User-agent: AdsBot-Google

Disallow: /

# Example 3: Block all but AdsBot crawlers

User-agent: *

Disallow: /

● disallow: [每條規則需含至少一個或多個 disallow 或 allow 條目] 您不希望用戶代理抓取的目錄或網頁(相對于根網域而言)。如果規則引用了某個網頁,則必須提供瀏覽器中顯示的完整網頁名稱。它必須以 / 字符開頭;如果它引用了某個目錄,則必須以 / 標記結尾。

● allow: [每條規則需含至少一個或多個 disallow 或 allow 條目] 上文中提到的用戶代理可以抓取的目錄或網頁(相對于根網域而言)。此指令用于替換 disallow 指令,從而允許抓取已禁止訪問的目錄中的子目錄或網頁。對于單個網頁,請指定瀏覽器中顯示的完整網頁名稱。對于目錄,請用 / 標記結束規則。

● sitemap: [可選,每個文件可含零個或多個 sitemap 條目] 相應網站的站點地圖的位置。站點地圖網址必須是完全限定的網址;Google 不會假定存在或檢查是否存在 http、https、www、非 www 網址變體。站點地圖是一種用于指示 Google 應抓取哪些內容的理想方式,但并不用于指示 Google 可以抓取或不能抓取哪些內容。詳細了解站點地圖。 示例:

Sitemap: https://example.com/sitemap.xml

Sitemap: http://www.example.com/sitemap.xml

除 sitemap 之外的所有指令都支持使用通配符 * 表示路徑前綴、后綴或整個字符串。

與這些指令均不匹配的行將被忽略。

如需有關每個指令的完整說明,請參閱 Google 對 robots.txt 規范的解釋頁面。

上傳 robots.txt 文件

將 robots.txt 文件保存到計算機后,您便可以將其提供給搜索引擎抓取工具。沒有一個統一工具可以幫助您完成這項工作,因為如何將 robots.txt 文件上傳到網站取決于您的網站和服務器架構。請與您的托管公司聯系,或在托管公司的文檔中進行搜索;例如,搜索"上傳文件 infomaniak"。

上傳 robots.txt 文件后,請測試該文件是否可公開訪問,以及 Google 能否解析該文件。

測試 robots.txt 標記

要測試新上傳的 robots.txt 文件是否可公開訪問,請在瀏覽器中打開無痕瀏覽窗口(或等效窗口),然后轉到 robots.txt 文件的位置。例如:https://example.com/robots.txt。如果您看到 robots.txt 文件的內容,就可準備測試標記了。

Google 提供了兩種測試 robots.txt 標記的方式:

1、Search Console 中的 robots.txt 測試工具。您只能針對您網站上可供訪問的 robots.txt 文件使用此工具。

2、如果您是開發者,請了解并構建 Google 的開源 robots.txt 庫,該庫也用在 Google 搜索中。您可以使用此工具在計算機上本地測試 robots.txt 文件。

向 Google 提交 robots.txt 文件

在您上傳并測試 robots.txt 文件后,Google 的抓取工具會自動找到并開始使用您的 robots.txt 文件。您無需采取任何操作。如果您更新了 robots.txt 文件,并需要盡快刷新 Google 的緩存副本,請了解如何提交更新后的 robots.txt 文件。

實用的 robots.txt 規則

下面是一些常見的實用 robots.txt 規則:

實用規則禁止抓取整個網站請注意,在某些情況下,Google 即使未抓取網站的網址,仍可能將其編入索引。
注意:這不適用于各種 AdsBot 抓取工具,此類抓取工具必須明確指定。
User-agent: *
Disallow: /禁止抓取某一目錄及其內容在目錄名后添加一道正斜線,即可禁止抓取整個目錄。禁止抓取的目錄字符串可以出現在路徑中的任何位置,因此 Disallow: /junk/ 與 https://example.com/junk/ 和 https://example.com/for-sale/other/junk/ 均匹配。
注意:請勿使用 robots.txt 禁止訪問私密內容;請改用正確的身份驗證機制。對于 robots.txt 文件所禁止抓取的網址,Google 仍可能會在不進行抓取的情況下將其編入索引;另外,由于 robots.txt 文件可供任何人隨意查看,因此可能會泄露您的私密內容的位置。

User-agent: *
Disallow: /calendar/
Disallow: /junk/
Disallow: /books/fiction/contemporary/
僅允許某一抓取工具訪問網站內容只有 googlebot-news 可以抓取整個網站。
User-agent: Googlebot-news
Allow: /
User-agent: *
Disallow: /允許除某一抓取工具以外的其他所有抓取工具訪問網站內容Unnecessarybot 不能抓取相應網站,所有其他漫游器都可以。
User-agent: Unnecessarybot
Disallow: /
User-agent: *
Allow: /禁止抓取某一網頁例如,禁止抓取 useless_file.Html 網頁。
User-agent: *
Disallow: /useless_file.html禁止 Google 圖片訪問某一特定圖片例如,禁止訪問 dogs.jpg 圖片。
User-agent: Googlebot-Image
Disallow: /images/dogs.jpg禁止 Google 圖片訪問您網站上的所有圖片如果無法抓取圖片和視頻,則 Google 無法將其編入索引。
User-agent: Googlebot-Image
Disallow: /
禁止抓取某一特定文件類型的文件例如,禁止抓取所有 .gif 文件。
User-agent: Googlebot
Disallow: /*.gif$禁止抓取整個網站,但允許 Mediapartners-Google 訪問內容實施此規則會阻止您的網頁顯示在搜索結果中,但 Mediapartners-Google 網頁抓取工具仍能分析這些網頁,以確定要向訪問您網站的用戶顯示哪些廣告。
User-agent: *
Disallow: /
User-agent: Mediapartners-Google
Allow: /使用 $ 匹配以特定字符串結尾的網址例如,禁止抓取所有 .xls 文件。
User-agent: Googlebot
Disallow: /*.xls$

TAG:谷歌搜索引擎怎么優化

SEO就是搜索引擎優化:讓你的網站在搜索引擎(比如百度、谷歌)的排名更靠前,當用戶通過關鍵詞搜索時更容易搜到你的網站,從而實現企業品牌曝光、主動獲客和營銷推廣的目標。
為什么要做SEO?
提高網站訪問量:SEO能讓你的網站在搜索引擎結果中更靠前,吸引更多客戶點擊。
降低市場營銷成本:相比于付費廣告,SEO是一種更經濟有效的營銷方式。
提升品牌知名度:網站排名靠前,可以讓更多用戶看到你的品牌名稱和信息,增強品牌影響力。
SEO優化有哪些優勢?
成本低廉:主要成本是優化師的工資。
效果穩定:一旦網站排名上升,效果穩定持久,可持續獲得展現機會。
不受地域限制:SEO的效果可以覆蓋全球,不受時間和空間的限制。
什么樣的公司更適合做SEO優化呢?大多數行業都可以從SEO中受益。特別是那些希望用戶主動訪問我們的網站、降低營銷成本、提升品牌知名度的企業。通過SEO來優化自己的網站,可吸引更多潛在客戶。

SEO是一種工人的有效的網絡營銷手段,可以幫助企業提升關鍵詞排名,吸引更多用戶,實現商業目標。SEO是一個長期且專業的技術,企業在進行SEO時,必須耐心優化,因為SEO涉及到的不止是網站結構、內容質量、用戶體驗、外部鏈接這幾個方面;還有算法的更替、蜘蛛的引導、快照的更新、參與排序的權重等。

 

SEO策略

SEO是企業最容易花大錢辦錯事的領域
如果你的網站無法從搜索引擎獲取流量和訂單,說明你,從一開始就沒有建立正確的SEO策略。
SEO的專業性遠超你的想象
SEO并非簡單的技術操作,而是一種綜合性的優化策略。我們要做的是協助搜索引擎而不是欺騙它!它涉及到的不止是網站結構、內容質量、用戶體驗、外部鏈接這幾個方面;還有算法的更替、蜘蛛的引導、快照的更新、參與排序的權重等。
讓用戶搜到你、信任你、選擇你
數據分析、迭代策略是客戶轉化的核心
通過對網站數據的深入分析,企業可以了解用戶的搜索習慣、需求和行為特征,從而迭代出更符合用戶需求的SEO優化方案。
科學規范的SEO策略

搜到你

讓用戶搜到你的網站是做SEO優化的目標,擁有精湛的SEO技術、豐富的經驗技巧以及對SEO規則的深刻把握才有機會獲得更好排名!

了解你

確保網站內容清晰、準確、易于理解,使用戶能夠輕松找到所需信息.使用簡潔明了的標題和描述,幫助用戶快速了解你的產品服務!

信任你

將企業的核心價值、差異化賣點、吸引眼球的宣傳語等品牌詞盡可能多的占位搜索前幾頁,增強用戶印象,優化用戶體驗讓訪客信任你!

選擇你

優化落地頁引導用戶咨詢或預約留言,引用大型案例或權威報道彰顯品牌實力,關注用戶需求和反饋,不斷優化產品服務讓用戶選擇你!

 

關鍵詞研究

根據用戶搜索習慣結合數據分析建立詞庫
關鍵詞是用戶搜索意圖的直接體現,這有助于網站提供更符合用戶需求的內容和服務,提高用戶滿意度和轉化率。選擇更合適的關鍵詞是制定SEO策略的基礎,在網站內容中自然地融入這些關鍵詞。這有助于提高網站在搜索引擎中的排名,增加曝光率和流量。

品牌關鍵詞

提升品牌知名度、塑造品牌形象,吸引對品牌感興趣的用戶,同時幫助監測品牌在搜索引擎中的表現。

核心關鍵詞

是網站內容的主要焦點,能吸引大量目標受眾,提高網站在相關搜索中的排名。搜索量大,競爭較激烈。

長尾關鍵詞

更能夠更精確地定位目標受眾,提高轉化率,競爭相對較小更容易獲得排名,更符合用戶的具體搜索意圖。

區域關鍵詞

針對特定地區進行優化,幫助本地企業吸引當地用戶,提高本地市場的曝光度。適用于有地域性需求的企業。

世界上從來不缺產品,只缺把產品賣出去的方法

競品關鍵詞

與競爭對手品牌或產品相關的詞,通過分析這些關鍵詞,可以了解競爭對手的優勢和劣勢。

產品關鍵詞

直接針對產品進行優化,與具體產品或服務直接相關,如產品名稱、型號、功能等描述性詞匯。

搜索下拉詞

反映用戶的搜索習慣和需求,是搜索引擎根據用戶輸入自動推薦的詞匯,與用戶搜索意圖高度相關。

相關搜索詞

提供與主題相關的其他搜索詞匯,幫助用戶發現更多相關內容,同時擴展網站的優化范圍。

 

站內SEO

網站內部SEO優化
通過SEO技術讓網站結構、層次、內部標簽及HTML代碼等更符合SEO規則。

TDK優化

力爭一次性完成網站頁面標題、描述、關鍵詞的的合理部署

鏈接優化

包含LOGO鏈接、導航鏈接、文章鏈接及外部鏈接等SEO優化設置

HTML優化

HTML代碼、標簽等優化:H,alt,strong,title,span,title等標簽

內容優化

固定內容與關鍵詞SEO匹配、動態內容提升蜘蛛抓取率增強快照評級

 

站外SEO

引導蜘蛛收錄
無論是網頁還是文章,收錄是SEO排名的基礎,快速引導蜘蛛收錄并形成快照是前提...

快照SEO診斷
快速診斷網頁快照狀態,網頁快照是否異常,網頁快照是否參與關鍵詞排序等...

提升快照評級
充分借助網站內鏈,參與排序的快照,高權重外鏈等提升網頁快照評級,

外鏈分析
是否存在單鏈、空鏈、#號鏈或降權網站的外鏈等,過濾無效鏈接或降權的外鏈有利于排名穩定...

外鏈建設
選擇高權重網站與貴公司進行友情鏈接交換,可快速提升網站整體權重、提升關鍵詞排名...

外鏈維護
試試診斷與查驗外鏈網站的狀況,及時剔除搜索蜘蛛無法識別和對本網站有害的鏈接

標題優化
標題要包含與主題相關的關鍵詞,要有高度的總結性、概括性,能表達出文章主旨思想。

向搜索引擎要流量要訂單
網站內容優化
不僅要提煉文章思想、總結摘要,還要闡述作者的觀點。圍繞關鍵詞相關性總結內容,讓內容具備可讀性和SEO匹配規則。

1)降低文章內容在搜索結果的重合度。尤其是文章標題、段落主題、內容摘要等;
2)標題包含關鍵詞(可包含部分或完整匹配)字數控制在24字內;
3)提煉的文章概要(100字內)必須與關鍵詞有相關性才有意義;
4)新文章不要增加錨文本超鏈接,等文章快照有排名后再擴充錨文本鏈接;
5)文章內容與標題關鍵詞相呼應,建立關聯,也可根據關鍵詞擴充有關的內容;
6)文章中的圖片最好增加alt屬性,圖片不要失真和變形,寬度大于500px更優機會搶占搜索快照縮略圖;
7)文章排版合理、段落分明、段落主題用H標簽加強,段落內容用span或p標簽區分;
8)發布文章后先引導收錄。如提交搜索引擎登錄、合理使用有排名快照的內部鏈接;
9)如果文章7天還沒有收錄,就要提升文章內容質量再發布;

 

關鍵詞快照優化

搜索診斷與快照優化
根據《百度搜索引擎優化指南2.0》+《網頁內容質量白皮書》對網站進行規范化調整,提升百度蜘蛛的抓取效率,收錄效率,排名展現效率和有效點擊的效率。

增加快照縮略圖

聯系客服

快照相關性分析

聯系客服

展現與點擊分析

聯系客服

訪客來路分析

聯系客服
 

托管代運營

流量易得,留量難求