广告投放黑科技:什么是Cloak,Cloak(斗篷)的原理是什么?
m0_60439289:
最近很多朋友加我(V MetaSVP T @GGSVP)询问斗篷的稳定性和是否靠谱,我总结下。
其实斗篷的原理都差不多,核心在IP库和追踪技术更新是否及时。
谷歌Google和FB的斗篷应用还不太一样。
谷歌主要是仿品、股票、网聊、社交等H5的投放方式。去屏蔽落地页。
日韩市场,需求比较大,但是谷歌的算法很厉害,非常容易发现安全页面,哪怕是加了优化,
也会识别网页的代码,然后被关联封户。很多跑几万美金一天的朋友和我吐槽,说这样谷歌还是很难突破。
FB在素材应用上有些帮助,比如投放Facebook 巴西市场,H5类的素材会封的很严重。
最近Facebook最近也升级了算法,会出现技术手段违规的封户提醒。
不过FB游戏投法,特别是slots投放还是有容易起量的。一天跑个几千上万美金比较稳定。
有些斗篷的技术背景可以在同步看下。
鉴于IP地址的不稳定性,后端代码需要提取并整理机房、代理、爬虫、ASN、黑白名单等子参数,并建立一套精准的并能经常维护的IP数据库。
如果这套数据库存在很大的误差,那么获取访客IP资产信息就会有很大的出入,从而导致cloak功能的失效。
1假如访客使用了苹果iCloud私人中继服务,如果cloak系统没有建立对应的IP段数据库,那么这个IP地址可能会被错误识别为机房或代理,导致其被cloak拦截,
从而丢失了这个优质访客。(iCloud私人中继服务是苹果提供的收费VPN服务,其租赁第三方ISP服务商的机房。实际代理地址和访客真实地址基本在一个省或市,
这并不会影响大数据分析,主要是为了保护用户的真实IP地址)因此,建立一套完善的IP段数据库非常重要,可以避免因未能准确识别访客IP地址而导致的误判和信息丢失。
2对于伪造UserAgent的访客,如果没有自建一个爬虫IP数据库,那么只依靠UserAgent来判断是否为爬虫是不够安全的。这是因为爬虫可以伪造UserAgent来绕过检测,
从而欺骗服务端程序。因此,在进行爬虫识别时,除了依赖UserAgent,还需要对访客IP进行二次校验。自建一个爬虫IP数据库,可以将常见的爬虫IP进行整理和分类,
以便进行二次校验。这样可以更加精准地识别恶意爬虫,并避免它们绕过cloak进入网站。
IP地区数据库的准确性非常重要,因为并不是所有IP数据库都能提供高度准确的信息。例如,国外的iP2loca
|