一、首先我們要了解我們網站是是什么類型的網站,做什么產品的。只有充分了解了網站你才可以更好的優化這個網站。網站的主要目的就是通過互聯網來增加自己企業的知名度。所以優化網站也是比不可少的。
1.了解網站基本的情況
①可以通過site命令分析網站收錄情況,查看百度快照網站收錄日期時間狀況。
②可以借助第三方工具分析網站收錄情況、關鍵詞排名、網站權重等相關信息。
例如:站長工具、愛站網、5188都是常用的工具
2.網站基本情況了解完了,我們就要分析網站的DTK(description、title、keywords)標簽了,這三大標簽可以說是網站的門面了。
Title標題:一個好網站離不開標題的設置,我們去優化新站的時候不要急于提交網站,先對網站整體內容分析,確定好主題,去修改網站的標題。切記網站標題文字不要出現或者超過四個相同的詞,以免百度引擎查到作弊,俗稱堆砌關鍵詞。
Keywords關鍵詞: 選擇關鍵詞我們可以借助一些選詞工具。還可以結合網站地圖(Sitemap)去寫,因為網站是一個框架,框架的描述就取決于關鍵詞,無論是用戶還是百度蜘蛛引擎需要去瀏覽和爬取,選好網站關鍵詞,結合關鍵詞去寫文章,降低用戶瀏覽的跳出率,提高頁面的瀏覽時長,能給我們網站帶來良好的排名。
Description 描述:寫好網站的描述,用一段話去概括自己的網站,讓用戶通搜索引擎可以一目了然的想點擊,自然就能帶來訪問的流量。
3.站內細節優化
作為seo優化專員,我們在優化前端的時候,也要注重網站后臺的管理,及時查看網站是否有漏洞,在seo這一塊,網站地圖(notepad++.exe用這個軟件改)和404頁面一定要生成下,網站地圖分為兩種文本格式,html文件 xml文件,后者是為了蜘蛛引擎的抓取堅固,前者是給用戶看的。
404頁面是客戶端在瀏覽網頁時,服務器無法正常提供信息,或是服務器無法回應,且不知道原因所返回的頁面。
Robots文件: 是網站跟爬蟲間的協議,用簡單直接的txt格式文本方式告訴對應的爬蟲被允許的權限,也就是說robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。
4.站外優化
①去加一些互換友鏈的QQ群或者去一些可以交換友鏈的網站平臺。
②去一些權重高的網站寫外鏈,一天可以寫六篇質量偏高的文章,文章中記得帶錨文本,文章內容盡量原創。發布的外情況我們可以通過site命令去查詢網址鏈接在某個網站的收錄情況,從而準確的判斷文章是否收錄,每天寫完文章記得去發布的平臺看看有沒有被刪除的,及時統計下來,修改修正。
③每天完成任務記得在瀏覽器審查所屬網站是否被掛馬,如遇到此情況,記得在百度快照里進行投訴,以免影響網站排名。
閱讀"網站SEO從什么做起?SEO基礎入門知識講解"的人還閱讀