目前的图像分类算法可以较为准确地区分ia的1000类数据,鉴黄本身也是对输入图像做分类,因此采用图像分类算法就是顺其自然的事。
而且目标检测算法可以用来检测sq图像中的露点部位,也是比较可靠的手段。
此外,还有基于业务层面构造的特征和逻辑,比如是否有人、皮肤的面积等,用来辅助判断,在一些情况下确实是有效的。
ai鉴黄的难点主要在于不露点的软sq,特征小的sq、非通用sq以及卡通动漫sq等等。
这是图片ai鉴黄的难点,视频和音频鉴黄的难点就更多了。
而且对于这帮互联网大厂来说,即便能够做到百分之九十九的拦截率,剩下百分之一的内容都不得了。
以微博为例,每天产生的数据都是以t为单位。
即便是几十个t,百分之一的拦截失误率,都足够把来总整的够呛。
而且更重要的是华国的内容审核行业,不仅仅局限于鉴黄,ocr审查这帮互联网大厂更是很早就在做了。
点到为止。
同样的道理,百分之九十九的拦截率,对他们来说都是无法接接受的。
所以一直到了2031年,依然是ai加人工的鉴黄方式。
只是说2021年的时候像微博这个体量的,可能需要上千名鉴黄师,到了2031年只需要上百名。
四位数变三位数。
至于微信,你在一遍,然后丢到后端的审查接口。
通过权重算法来判断你是否有违规行为,触发特定规则之后,会决定你倾向的权重,权重超过阈值之后你会被重点关注。
将会有人工来对你进行审核。
&nle和推特都有大量的人工审核团队。
他们的审核团队放在菲律宾。
在2018年的时候,关于这件事,pbs放过一个纪录片。
对于国内外的互联网巨头们来说,他们在文字识别上能够做到接近百分之百,但是在图像分类测试中,只能做到98左右。
而且对算力有非常高的要求,压根用不到实际的生产环境里。
&ne每年的图像分类测试竞赛结果,实际运营中的图像视频识别比ia竞赛可要难得多。
而郑理公开的ai算法后,利用语言写出来的模型。
从部署到使用突破了这帮互联网公司的认知,一个能够对内容实现99.9的识别成功率的ai模型,需要花的算力和之前差不多。
也就是说之前互联网大厂们几百人的ai鉴黄规模,现在再度被压缩了百分之九十。
ai鉴黄只是语言最先落地的应用。
它代表的ai技术,在算力优势以及算法本身的落地难度都大幅度提升。
它允许轻松构建大部分原本复杂的架构,能够广泛的应用在工业领域。
大量易于组合的模块化部件,编写自己的图层类型、计算图抽象、数据和模型并行、动态类型的稳定性等等都完美适配。
&nithub上语言相关的项目成为社区热门。
国外的程序员社区里,活跃的大牛都在吐槽,一些很少发言的大牛也冒泡了:
“梅林的技术远超我们的想象,如果语言是他自己开发的,那他在ai领域的造诣要超过我们所有人。
真的很难见到一款没有任何缺陷的ai编程语言。
像caffe能够把atb的快速卷积网络实现移植到c和c++,适用于前馈网络和图像处理,不需要任何代码就可以训练模型。
但是caffe不能使用于循环网络,同时扩展性极差。
&nrflo框架能够生成计算图之后执行自动微分,不需要在尝试新的神经网络排列