本篇文章690字,读完约2分钟


百度和360之间的各搜索引擎之争正在加剧,竞争手段在进化。 为了打击360,百度采用了robots协议白名单,禁止360抓取百度百科、百度贴吧和百度知道的副本,谷歌、bing、Sogou、搜索等各搜索引擎可以自由抓取。

360百度认为采用robots协议存在歧视性而拒绝遵守,百度在此次起诉360中未遵守robots协议。

北京德衡律师事务所合伙人、知识产权和反不正当竞争律师杨倩娥在接受记者采访时表示,任何公司都需要合理合法地采取各种领域的协议和规范,保护领域和公司自身的利益和健康,迅速发展。

但是,如果歧视性地采用像robots这样的协定,将其作为打击同行业其他公司的工具,则有可能构成不正当竞争,得不到法律的保护。

robots协议最初是由文案网站比较谷歌文案制作的协议,由荷兰互联网工程师martijn koster于1994年首次提出,1997年向ietf提出以robots协议为组织规范, 随后,国际电信联盟( itu )、w3c的规格也同样拒绝采用robots协议。 因为,欧美电信专家担心,由于robots协议中包含拒绝条款,搜索鳄鱼可能会利用robots协议的条款,让一些热门网站签订排他性协议,从而阻止竞争对手,维持垄断

正如martijn koster自己也说过的那样,robots协议是领域的约定,没有法律效力。 主要目的是规范大型搜索引擎和提供副本的网站之间的副本的获取和引用

Baidu通过在robots协议中设置白名单禁止360来禁止抓百科、Baidu的知乎、百度的帖子,允许抓其他大规模的搜索引擎,显然具有一定的差异性。

/ br// h /

标题:要闻:律师杨倩娥:歧视性采用Robots协议构成不正当竞争

地址:http://www.bjyccs.com.cn/news/242.html