⑴ 日誌分析一般用什麼工具,linux 64位centos6.4,純凈版
日誌易是針對500M以下免費,關聯分析及故障溯源。開源的可以使用ELK grep awk 等都很不錯
⑵ 如何查看及分析網站IIS日誌文件
IIS查看分析網站日誌需要找到日誌目錄,下面小編在Win10系統演示一下:
1、打開開始界面,點擊左下角的設置圖標,如下圖所示
⑶ 網站日誌什麼時候需要查看,有什麼好的日誌分析工具嘛
M5 analyzer ,特點:網頁的樹狀分析,能夠得出訪問路徑
deep log analyzer ,內容非常詳細,速度較慢
alter wind log,基本功能
Absolute Log Analyzer Pro,性能強大,支持web集群
123 log ,界面簡單,基本功能
happy Log ,網頁樹狀列表並計數
website analyser,界面簡介
Nihuo Web Log Analyzer,基本功能
SurfStats Version 8.0.0.0,報告格式比較豐富
weblogstorming,基本功能
web log explorer,基本功能,報表展現功能豐富
web log expert,基本功能
⑷ 伺服器日誌分析工具中文版哪個好用
IIS日誌查看器綠色版, 本工具使用本地SQLite微型資料庫,支持IIS6、IIS7大日誌分析處理,速度極快, 體積小巧,無廣告。
主要功能:
1. 分析日誌詳情,顯示蜘蛛\訪客到訪網址、時間、訪者IP、狀態碼等;最全的條件篩選,網頁與資源文件(jpg\png\gif\js\css\txt等)分離查詢,可根據多條件進行篩選;
2. 可快捷驗證受訪URL的在網路中的收錄、訪客IP歸屬地、定位該訪客所有訪問信息,助您排查網站是否受採集、受攻擊。
3. 日誌導入本地資料庫,方便存檔。
4. 最全的統計報表;可以:訪客分類統計、URL分組統計、狀態碼統計、IP分類統計、時間段統計等。
5. 可使用Sqlite語句進行自定義查詢, 欄位為原IIS日誌欄位名,查詢便捷。
其它功能若干,不再一一描述, 歡迎下載體驗!
⑸ 如何用SARG日誌分析器來分析
SARG是一款基於網路的工具,它可以分析Squid日誌,並以更詳細的方式展示分析。系統管理員可以利用SARG來監視哪些網站被訪問了,並跟蹤訪問量最大的網站和用戶。本文包含了SARG配置工作。SARG提供了很多有用的特性,但是分析一個原始Squid日誌文件並不直接。比如,你如何分析下面Squid日誌中的時間戳和數字?
1404788984.429 1162 172.17.1.23 TCP_MISS/302 436 GET http://facebook.com/ - DIRECT/173.252.110.27 text/html
1404788985.046 12416 172.17.1.23 TCP_MISS/200 4169 CONNECT stats.pusher.com:443 - DIRECT/173.255.223.127 -
1404788986.124 174 172.17.1.23 TCP_MISS/200 955 POST http://ocsp.digicert.com/ - DIRECT/117.18.237.29 application/ocsp-response
1404788989.738 342 172.17.1.23 TCP_MISS/200 3890 CONNECT www.google.com:443 - DIRECT/74.125.200.106 -
1404788989.757 226 172.17.1.23 TCP_MISS/200 942 POST http://clients1.google.com/ocsp - DIRECT/74.125.200.113 application/ocsp-response
1404788990.839 3939 172.17.1.23 TCP_MISS/200 78944 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.846 2148 172.17.1.23 TCP_MISS/200 118947 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.849 2151 172.17.1.23 TCP_MISS/200 76809 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788991.140 611 172.17.1.23 TCP_MISS/200 110073 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 –
我們使用yum來安裝安裝必要的依賴。
# yum install gcc make wget httpd crond
在啟動時載入必要的服務
# service httpd start; service crond start
# chkconfig httpd on; chkconfig crond on
現在我們下載並解壓SARG
上一節教程中,我們展示了如何在CentOS上使用Squid配置透明代理。Squid提供了很多有用的特性,但是分析一個原始Squid日誌文件並不直接。比如,你如何分析下面Squid日誌中的時間戳和數字?
1404788984.429 1162 172.17.1.23 TCP_MISS/302 436 GET http://facebook.com/ - DIRECT/173.252.110.27 text/html
1404788985.046 12416 172.17.1.23 TCP_MISS/200 4169 CONNECT stats.pusher.com:443 - DIRECT/173.255.223.127 -
1404788986.124 174 172.17.1.23 TCP_MISS/200 955 POST http://ocsp.digicert.com/ - DIRECT/117.18.237.29 application/ocsp-response
1404788989.738 342 172.17.1.23 TCP_MISS/200 3890 CONNECT www.google.com:443 - DIRECT/74.125.200.106 -
1404788989.757 226 172.17.1.23 TCP_MISS/200 942 POST http://clients1.google.com/ocsp - DIRECT/74.125.200.113 application/ocsp-response
1404788990.839 3939 172.17.1.23 TCP_MISS/200 78944 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.846 2148 172.17.1.23 TCP_MISS/200 118947 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.849 2151 172.17.1.23 TCP_MISS/200 76809 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788991.140 611 172.17.1.23 TCP_MISS/200 110073 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 –
我們使用yum來安裝安裝必要的依賴。
# yum install gcc make wget httpd crond
在啟動時載入必要的服務
# service httpd start; service crond start
# chkconfig httpd on; chkconfig crond on
現在我們下載並解壓SARG
# wget http://downloads.sourceforge.net/project/sarg/sarg/sarg-2.3.8/sarg-2.3.8.tar.gz?
# tar zxvf sarg-2.3.8.tar.gz
# cd sarg-2.3.8
注意: 對於64位的Linux,log.c的源代碼需要用下面的文件打補丁。
1506c1506
< if (fprintf(ufile->file, "%st%st%st%st%"PRIi64"t%st%ldt%sn",dia,hora,ip,url,nbytes,code,elap_time,smartfilter)<=0) {
---
> if (fprintf(ufile->file, "%st%st%st%st%"PRIi64"t%st%ldt%sn",dia,hora,ip,url,(int64_t)nbytes,code,elap_time,smartfilter)<=0) {
1513c1513
< fprintf(fp_log, "%st%st%st%st%st%"PRIi64"t%st%ldt%sn",dia,hora,user,ip,url,nbytes,code,elap_time,smartfilter);
---
> fprintf(fp_log, "%st%st%st%st%st%"PRIi64"t%st%ldt%sn",dia,hora,user,ip,url,(int64_t)nbytes,code,elap_time,smartfilter);
1564c1564
< printf("LEN=t%"PRIi64"n",nbytes);---
> printf("LEN=t%"PRIi64"n",(int64_t)nbytes);
如下繼續並編譯/安裝SARG
# ./configure
# make
# make install
SARG安裝之後,配置文件可以按你的要求修改。下面是一個SARG配置的'例子。
# vim /usr/local/etc/sarg.conf
access_log /var/log/squid/access.log
temporary_dir /tmp
output_dir /var/www/html/squid-reports
date_format e ## We use Europian DD-MM-YYYY format here ##
## we don』t want multiple reports for single day/week/month ##
overwrite_report yes
現在是時候測試運行了,我們用調試模式運行sarg來查看是否存在錯誤。
# sarg -x
如果i一切正常,sarg會根系Squid日誌,並在/var/www/html/squid-reports下創建報告。報告也可以在瀏覽器中通過地址http://<伺服器ip>/squid-reports/訪問。
SARG可以用於創建日、周、月度報告。時間范圍用「-d」參數來指定,值的形式很可能為day-n、 week-n 或者 month-n,n的值為向前推移的天/周/月的數量。比如,使用week-1,SARG會生成之前一星期的報告。使用day-2,SARG會生成之前兩天的報告。
作為演示,我們會准備一個計劃任務來每天運行SARG。
# vim /etc/cron.daily/sarg
#!/bin/sh
/usr/local/bin/sarg -d day-1
文件需要可執行許可權。
# chmod 755 /usr/local/bin/sarg
現在SARG應該會每天准備關於Squid管理的流量報告。這些報告可以很容易地通過SARG網路介面訪問。
以上就是利用SARG工具,來分析分析Squid日誌,並以更詳細的方式展示分析。系統管理員可以利用SARG來監視哪些網站被訪問了,並跟蹤訪問量最大的網站和用戶。
另外我找來的這篇文章還包含了SARG配置工作。你可以進一步自定義配置來滿足自己的要求。希望能幫助大家,謝謝有點。
⑹ 伺服器日誌分析工具,怎樣查看伺服器日誌監控
工具/原料
網站伺服器、運行中網站
網站日誌分析工具、FTP工具
網站日誌查看流程
登錄虛擬主機的管理系統(本經驗以萬網為例),輸入主機的賬號以及密碼,登陸。操作如下所示:
登錄系統後台,找到"網站文件管理"中的"weblog日誌下載",並點擊。操作如下圖所示:
點擊"weblog日誌下載",可以看到很多以"ex"+時間命名的壓縮文件可以下載。選擇所需要下載的網站日誌,點擊下載。操作如下所示:
登錄FTP工具,在根目錄下找到"wwwlogs"文件,下載所需的壓縮文件。注意:不同程序,日誌存放目錄不一樣。操作如下圖所示:
網上有很多日誌分析軟體,本經驗以"光年seo日誌分析系統"這款軟體為例子,點擊"新建分析任務"。操作如下圖所示:
在"任務導向"中,按照實際要求改任務名以及日誌類別。一般情況下可以不用修改。點擊系下一步,操作如下圖所示:
接著上一步,在"任務導向"中添加所需要分析的網站日誌(也就是本經驗第三步下載的文件),添加文件可以是一個或者多個。點擊系下一步,操作如下圖所示:
接著上一步,在"任務導向"中選擇報告保存目錄。點擊系下一步,操作如下圖所示:
完成之後,軟體會生成一件文件夾,包含一個"報告"網頁以及"files"文件,點擊"報告"網頁就可以查看網站日誌數據了。
⑺ 如何進行網站日誌分析
一、什麼是網站日誌
1.網站日誌是記錄web伺服器接收處理請求以及運行時錯誤等各種原始信息的以·log結尾的文件。
2.通過網站日誌可以清楚的得知用戶在什麼IP、什麼時間、用什麼操作系統、什麼瀏覽器、什麼解析度設備下訪問了網站的哪個頁面,是否訪問成功。
3.搜索引擎也屬於網站中的一類用戶,我們今天的分享課,主要是針對搜索引擎這種用戶在伺服器留下的記錄展開分析。
為了方便讀懂搜索引擎日誌,我們需要了解不同搜索引擎蜘蛛的標識,以下為4種搜索引擎的標識——*網路蜘蛛:Baispider*搜狗:Sogou News Spider*360:360Spider*谷歌:Googlebot
二、如何看懂網站日誌
(以下為一段日誌記錄)www.cafehome.com
58.180.251.134 - - [25/Mar/2015:13:24:33 +0800] "GET /m53256.html
HTTP/1.1" 200 12264 "http://www.cafehome.com/index-1s2i2p2" "Mozilla/5.0
(Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko)
Chrome/35.0.1916.153 Safari/537.36 SE 2.X MetaSr 1.0" "-" "-" "-"
以下為欄位解讀:
⑻ 網站日誌分析軟體的六大功能
我為各大站長以及網站管理員量身定做的一款網站日誌分析軟體,這款軟體支持IIS、Apache網站的日誌,支持的日誌格式有W3C、IIS、NCSA等格式。這款軟體同時還是一款SEO工具,能夠幫助站長以及管理員更好的管理站點。
六大功能:
一、蜘蛛抓取
搜索引擎蜘蛛可以自由添加,除統計每個蜘蛛訪問了多少次外,還統計每個蜘蛛訪問了那些頁,訪問時間;如果對同一個網頁訪問了多次,還可以知道首次訪問時間和最後離開時間。
二、頁面受訪
統計每個網頁被用戶訪問了多少次,不包括搜索引擎訪問次數;可以知道那個網頁最受用戶歡迎,也能掌握那個IP惡意訪問不存在的網頁,揪出掃描伺服器的IP、試圖惡意上傳病毒的用戶和想竊取自己網站的'用戶;並且詳細列出每個網頁受訪問時間、狀態碼和來源網址。
三、IP訪問頁面
分別統計出訪客IP和搜索引擎IP的總數,每個IP訪問了多少次、到訪時間和離開時間;可以掌握那個IP惡意訪問,揪出每天訪問次數特別多隻浪費流量不帶來流量的IP。
四、返回狀態碼
統計返回404、403、500、503、304的網頁,並且根據這些狀態碼進行分類,統計出每個頁面每種狀態出現多少次;能及時掌握路徑更改和不存在的網頁。
五、訪客來源
分為來源搜索引擎和普通網站,統計出每個搜索引擎來源多少次,通過搜索什麼關鍵詞來的,受訪的是什麼網頁,每個網頁來源次數(受訪次數);來源普通網站是指除搜索引擎外的所有網站;這些信息便於掌握自己的推廣效果。
六、搜索關鍵詞
是指從搜索引擎搜索關鍵詞並點擊進入您的網站的情況,除統計出每個來源關鍵詞外,還統計每個關鍵詞來源次數,便於掌握那些網頁設置的關鍵詞能帶來流量。
⑼ web log 日誌分析工具怎麼用
WebLog,它是一款專門用來分析網站日誌文件的軟體,可以對網站的來訪者進行詳細分析,包括當前活動會話統計、文件存取統計、搜索使用情況統計、瀏覽器/操作系統統計、錯誤統計等。