网址中有哪些可以推断服务器信息的关键线索

爱站 2025-01-13 93 0条评论
55Link友情链接交易平台
摘要: 网址的开头通常包含协议信息,如http://或https://。这表明网站使用的是HTTP(超文本传输协议)还是HTTPS(超文本传输安全协议)。HTTPS表示网站采用加密传输,这...

网址的开头通常包含协议信息,如"http://"或"https://"。这表明网站使用的是HTTP(超文本传输协议)还是HTTPS(超文本传输安全协议)。HTTPS表示网站采用加密传输,这可以增加数据传输的安全性,通常用于处理敏感信息,如电子商务交易或登录凭证。

子域名是网址的一部分,位于主域名之前。它们可以为网站的不同功能或内容划分区域。例如,"blog.example.com"中的"blog"就是一个子域名,它可能用于托管公司的博客内容。子域名的存在可以帮助您了解网站的结构和用途。

网址中有时会包含文件扩展名,如".php"、".asp"或".jsp"。这些扩展名通常表示网站使用特定的服务器端语言或技术,如PHP、ASP.NET或Java Server Pages。通过识别这些扩展名,您可以推断出网站的技术栈,这可能会对您的安全评估或渗透测试产生影响。

网址的最后部分有时包含查询字符串参数,用于传递动态数据。这些参数通常以"?"或"&"开头,后跟键值对。例如,"example.com/product.php?id=123&category=electronics"。这些参数可以提供有关网站如何处理和存储数据的信息。

大多数网站使用默认的HTTP端口(80)或HTTPS端口(443)。但在某些情况下,网址可能会包含自定义端口号,如"example.com:8080"。这可能表示网站使用非标准端口,这可能是由于特定的配置或安全需求。

网址的路径部分可以提供有关网站结构和内容的信息。例如,"example.com/admin/dashboard"可能表示网站有一个管理员控制面板。路径信息可以帮助您了解网站的功能和组织结构。

仔细观察网址中的这些关键线索可以帮助您推断出网站的服务器配置和技术细节。这些信息可能对安全评估、渗透测试或简单的网站分析有所帮助。当然,您需要谨慎地使用这些信息,并始终尊重网站所有者的隐私和安全。


服务器被攻击问题如何解决?

当服务器被攻击时,最容易被人忽略的地方,就是记录文件,服务器的记录文件了黑客活动的蛛丝马迹。 在这里,我为大家介绍一下两种常见的网页服务器中最重要的记录文件,分析服务器遭到攻击后,黑客在记录文件中留下什么记录。 目前最常见的网页服务器有两种:Apache和微软的Internet Information Server (简称IIS)。 这两种服务器都有一般版本和SSL认证版本,方便黑客对加密和未加密的服务器进行攻击。 IIS的预设记录文件地址在 c:winntsystem32logfilesw3svc1的目录下,文件名是当天的日期,如。 系统会每天产生新的记录文件。 预设的格式是W3C延伸记录文件格式(W3C Extended Log File Format),很多相关软件都可以解译、分析这种格式的档案。 记录文件在预设的状况下会记录时间、客户端IP地址、method(GET、POST等)、URI stem(要求的资源)、和HTTP状态(数字状态代码)。 这些字段大部分都一看就懂,可是HTTP状态就需要解读了。 一般而言,如果代码是在200到299代表成功。 常见的200状态码代表符合客户端的要求。 300到399代表必须由客户端采取动作才能满足所提出的要求。 400到499和500到599代表客户端和服务器有问题。 最常见的状态代码有两个,一个是404,代表客户端要求的资源不在服务器上,403代表的是所要求的资源拒绝服务。 Apache记录文件的预设储存位置在/usr/local/apache/logs。 最有价值的记录文件是access_log,不过 ssl_request_log和ssl_engine_log也能提供有用的资料。 access_log记录文件有七个字段,包括客户端IP地址、特殊人物识别符、用户名称、日期、Method Resource Protocol(GET、POST等;要求哪些资源;然后是协议的版本)、HTTP状态、还有传输的字节。 我在这里所用的是与黑客用的相似的模拟攻击网站方式和工具。 (注意:在本文中所介绍的方法请大家不要试用,请大家自觉遵守网络准则!) 分析过程 网页服务器版本是很重要的信息,黑客一般先向网页服务器提出要求,让服务器送回本身的版本信息。 只要把「HEAD / HTTP/1.0」这个字符串用常见的netcat utility(相关资料网址:~weld/netcat/)和OpenSSL binary(相关资料网址:)送到开放服务器的通讯端口就成了。 注意看下面的示范: C:>nc -n 10.0.2.55 80 HEAD / HTTP/1.0 HTTP/1.1 200 OK Server: Microsoft-IIS/4.0 Date: Sun, 08 Mar 2001 14:31:00 GMT Content-Type: text/html Set-Cookie: ASPSESSIONIDGQQQQQPA=IHOJAGJDECOLLGIBNKMCEEED; path=/ Cache-control: private 这种形式的要求在IIS和Apache的记录文件中会生成以下记录: IIS: 15:08:44 11.1.2.80 HEAD / 200 Linux: 11.1.2.80 - - [08/Mar/2001:15:56:39 -0700] HEAD / HTTP/1.0 200 0 虽然这类要求合法,看似很平常,不过却常常是网络攻击的前奏曲。 access_log和IIS的记录文件没有表明这个要求是连到SSL服务器还是一般的网页服务器,可是Apache的 ssl_request_log和ssl_engine_log(在/usr/local/apache/logs目录下)这两个记录文件就会记录是否有联机到SSL服务器。 请看以下的ssl_request_log记录文件: [07/Mar/2001:15:32:52 -0700] 11.1.1.50 SSLv3 EDH-RSA-DES-CBC3-SHA HEAD / HTTP/1.0 0 第三和第四个字段表示客户端使用的是哪种加密方式。 以下的ssl_request_log分别记录从OpenSSL、 Internet Explorer和Netscape客户端程序发出的要求。 [07/Mar/2001:15:48:26 -0700] 11.1.1.50 SSLv3 EDH-RSA-DES-CBC3-SHA GET / HTTP/1.0 2692 [07/Mar/2001:15:52:51 -0700] 10.0.2.55 TLSv1 RC4-MD5 GET / HTTP/1.1 2692 [07/Mar/2001:15:54:46 -0700] 11.1.1.50 SSLv3 EXP-RC4-MD5 GET / HTTP/1.0 2692 [07/Mar/2001:15:55:34 –0700] 11.1.2.80 SSLv3 RC4-MD5 “GET / HTTP/1.0” 2692 另外黑客通常会复制一个网站(也就是所谓的镜射网站。 ),来取得发动攻击所需要的信息。 网页原始码中的批注字段常有目录、文件名甚至密码的有用资料。 复制网站常用的工具包括窗口系统的Teleport Pro(网址:)和Unix系统的wget(网址:)。 在这里我为大家分析wget和TeleportPro这两个软件攻击网页服务器后记录文件中的内容。 这两个软件能全面快速搜寻整个网站,对所有公开的网页提出要求。 只要检查一下记录文件就知道,要解译镜射这个动作是很简单的事。 以下是IIS的记录文件: 16:28:52 11.1.2.80 GET / 200 16:28:52 11.1.2.80 GET / 404 16:28:52 11.1.2.80 GET /header_protecting_your_ 200 16:28:52 11.1.2.80 GET /header_fec_ 200 16:28:55 11.1.2.80 GET /photo_contribs_ 200 16:28:55 11.1.2.80 GET /g2klogo_white_ 200 16:28:55 11.1.2.80 GET /header_contribute_on_ 200 注:11.1.2.80这个主机是Unix系统的客户端,是用wget软件发出请求。 16:49:01 11.1.1.50 GET / 200 16:49:01 11.1.1.50 GET / 404 16:49:01 11.1.1.50 GET /header_contribute_on_ 200 16:49:01 11.1.1.50 GET /g2klogo_white_ 200 16:49:01 11.1.1.50 GET /photo_contribs_ 200 16:49:01 11.1.1.50 GET /header_fec_ 200 16:49:01 11.1.1.50 GET /header_protecting_your_ 200 注:11.1.1.50系统是窗口环境的客户端,用的是TeleportPro发出请求。 注意:以上两个主机都要求这个档,其实这个档案是网页管理员的工具,作用是防止wget和TeleportPro这类自动抓文件软件对某些网页从事抓取或搜寻的动作。 如果有人提出档的要求,常常代表是要镜射整个网站。 但,TeleportPro和wget这两个软件都可以把要求这个文件的功能取消。 另一个侦测镜射动作的方式,是看看有没有同一个客户端IP反复提出资源要求。 黑客还可以用网页漏洞稽核软件:Whisker(网址:),来侦查网页服务器有没有安全后门(主要是检查有没有cgi-bin程序,这种程序会让系统产生安全漏洞)。 以下是IIS和Apache网页服务器在执行Whisker后产生的部分记录文件。 IIS: 13:17:56 11.1.1.50 GET /SiteServer/Publishing/ 404 13:17:56 11.1.1.50 GET /msadc/samples/ 200 13:17:56 11.1.1.50 GET /advworks/equipment/catalog_ 404 13:17:56 11.1.1.50 GET /iisadmpwd/ 200 13:17:56 11.1.1.50 HEAD /scripts/samples/ 200 13:17:56 11.1.1.50 GET /scripts/samples/ 200 13:17:56 11.1.1.50 HEAD /scripts/samples/ 200 13:17:56 11.1.1.50 GET /scripts/samples/ 200 13:17:56 11.1.1.50 HEAD /scripts/tools/ 404 13:17:56 11.1.1.50 HEAD /msadc/ 200 13:17:56 11.1.1.50 GET /scripts/iisadmin/ 200 13:17:56 11.1.1.50 HEAD / 404 13:17:56 11.1.1.50 HEAD /scripts/proxy/ 403 13:17:56 11.1.1.50 HEAD /scripts/proxy/ 500 13:17:56 11.1.1.50 GET /scripts/proxy/ 500 Apache: 11.1.1.50 - - [08/Mar/2001:12:57:28 -0700] GET / HTTP/1.0 404 266 11.1.1.50 - - [08/Mar/2001:12:57:28 -0700] GET /cfide/Administrator/ HTTP/1.0 404 289 11.1.1.50 - - [08/Mar/2001:12:57:28 -0700] GET /cfappman/ HTTP/1.0 404 273 11.1.1.50 - - [08/Mar/2001:12:57:28 -0700] GET /cgi-bin/ HTTP/1.0 403 267 11.1.1.50 - - [08/Mar/2001:12:57:29 -0700] GET /cgi-bin/ HTTP/1.0 404 277 11.1.1.50 - - [08/Mar/2001:12:57:29 -0700] HEAD /_vti_ HTTP/1.0 404 0 11.1.1.50 - - [08/Mar/2001:12:57:29 -0700] HEAD /_vti_pvt/ HTTP/1.0 404 0 11.1.1.50 - - [08/Mar/2001:12:57:29 -0700] HEAD /cgi-bin/ HTTP/1.0 404 0 11.1.1.50 - - [08/Mar/2001:12:57:29 -0700] HEAD /cgi-bin/handler HTTP/1.0 404 0 11.1.1.50 - - [08/Mar/2001:12:57:29 -0700] HEAD /cgi-bin/wrap HTTP/1.0 404 0 11.1.1.50 - - [08/Mar/2001:12:57:29 -0700] HEAD /cgi-bin/ HTTP/1.0 404 0 大家要侦测这类攻击的关键,就在于从单一IP地址发出大量的404 HTTP状态代码。 只要注意到这类信息,就可以分析对方要求的资源;于是它们就会拼命要求提供 cgi-bin scripts(Apache 服务器的 cgi-bin 目录;IIS服务器的 scripts目录)。 小结 网页如果被人探访过,总会在记录文件留下什么线索。 如果网页管理员警觉性够高,应该会把分析记录文件作为追查线索,并且在检查后发现网站真的有漏洞时,就能预测会有黑客攻击网站。 接下来我要向大家示范两种常见的网页服务器攻击方式,分析服务器在受到攻击后黑客在记录文件中痕迹。 (1)MDAC攻击 MDAC攻击法可以让网页的客户端在IIS网页服务器上执行命令。 如果有人开始攻击IIS服务器,记录文件就会记下客户端曾经呼叫文档: 17:48:49 12.1.2.8 GET /msadc/ 200 17:48:51 12.1.2.8 POST /msadc/ 200 (2)利用原始码漏洞 第二种攻击方式也很普遍,就是会影响ASP和Java网页的暴露原始码漏洞。 最晚被发现的安全漏洞是 + 臭虫,这个bug会显示ASP原始码。 如果有人利用这个漏洞攻击,就会在IIS的记录文件里面留下这些线索: 17:50:13 11.1.2.80 GET /+ 200 网页常会只让有权限的使用者进入。 接下来我们要让各位看 Apache的access_log记录文件会在登录失败时留下什么线索: 12.1.2.8 - user [08/Mar/2001:18:58:29 -0700] GET /private/ HTTP/1.0 401 462 注:第三栏里面的使用者名称是「user」。 还有要注意HTTP的状态代号是401,代表非法存取。

信息检索的工具有哪些?

1、FTP(文件传输协议)类的检索工具。

用于在网络上进行文件传输的一套标准协议,使用客户/服务器模式。 它属于网络传输协议的应用层。 文件传送(file transfer)和文件访问(file access)之间的区别在于:前者由FTP提供,后者由如NFS等应用系统提供。

2.基于菜单式的检索工具。

这类检索工具是一种分布式信息查询工具,它将用户的请求自动转换成FTP或Telnet命令,在一级一级的菜单引导下,用户可以选取自己感兴趣的信息资源。

3、基于关键词的检索工具。

关键词工具(Keyword Tool 简称KT)是根据客户的各种需要,为客户提供可选择的关键词,从而更好定位潜在客户的有力助手。 它就像是一个好用的渔网,帮客户从茫茫词海中打捞出合适客户的关键词。

4.基于超文本式的检索工具

著名的www是一种基于超文本方式的信息查询工具,通过将位于全世界因特网上的各站点的相关数据库信息有机地编织在一起,从而提供了一种界面友好的信息查询接口,用户只需要提出查询要求,至于到什么地方查询以及如何查询均由Www自动完成。

5、多元搜索引擎。

搜索引擎是指互联网上专门提供检索服务的一类网站,这些站点的服务器通过网络搜索软件或网络登录等方式,将Intenet上大量网站的页面信息收集到本地,经过加工处理建立信息数据库和索引数据库,从而对用户提出的各种检索作出响应,提供用户所需的信息或相关指针。

按著录格式的不同划分信息检索工具可分为哪几种

可分为以下几种:

1、目录型检索工具

目录型检索工具是记录具体出版单位、收藏单位及其他外表特征的工具。 它以一个完整的出版或收藏单位为著录单元,一般著录文献的名称、著者、文献出处等。 目录的种类很多,对于文献检索来说,国家书目、联合目录、馆藏目录等尤为重要。

2、题录型检索工具

3、文摘型检索工具

文摘型检索工具是将大量分散的文献,选择重要的部分,以简炼的形式做成摘要,并按一定的方法组织排列起来的检索工具。 按照文摘的编写人,可分为著者文摘和非著者文摘。

4、索引型检索工具

扩展资料:

信息检索工具的特点。

1、信息检索服务的开放性

在因特网这个大型系统中包含信息资源、信息设备、信息通道、信息检索软件及信息终端等子系统,各个子系统都是开放的。

2、超文本的多链接性

以超文本技术为基础链结构将小同地方的相关信息有机联系起来,使用户可以通过点击文本或图表中的超文本链接点访问另一个相关的文档,通过这些链接,信息检索能够以交互和跳跃式的方式进行,从而达到浏览检索的目的。

3、操作的简易性

网络信息检索工具一般采用Client/Server结构,通过交互式的图形界面,为用户提供友好的信息查询要求,系统就会自动向适当的服务器提出请求,使因特网检索资源能够广泛地深入到学校、家庭、办公室乃至每一个人。

文章版权及转载声明:

作者:爱站本文地址:https://www.awz.cc/post/12257.html发布于 2025-01-13
文章转载或复制请以超链接形式并注明出处爱网站

赞(0