第258章 上菜的路上还能边走边烹饪(2 / 3)

投票推荐 加入书签 留言反馈

  冯见雄说到这里的时候,稍微停顿了一下。也观察了杰克马的接受度,又通俗解释了几个点。
  他的这番理论,如果都用术语表述,可能比较晦涩。
  但是,举个小学生都懂的例子,横向对比一下,就通俗了——谷歌科学家们,在调教“深度学习”型人工智能、理解人类语言文字/图像信息的时候,其实有点儿像老师给小学生上语文课。
  相信小学生都记得,当年语文课的时候,老师会不厌其烦问你:这篇课文的主要内容是什么?中心思想是什么?线索是什么?
  很多小学生当初肯定是内心有一万头羊驼奔腾而过:尼玛!老子知道这个课文说了啥,看懂不就好了?你问个屁的“主要内容”、“中心思想”啊!考试答错了还扣分!
  但你别说,调教机器人学语文的时候,还真得严格按照“主要内容”、“中心思想”这么一步步总结下来。很多人类觉得可以靠本能绕过去、或者省略掉的步骤,机器是绕不过去的。
  杰克马很快就懂了,示意他继续:“那么,然后呢?”
  冯见雄继续解说:“既然知道谷歌的技术路线了,那么我们就可以推断:在实现最终极的目标之前,谷歌需要先解决‘读懂一张图里发生的故事’的问题,然后再考虑‘如何选出一个视频中最能体现中心思想的那几帧’。
  那么,距离‘读懂一张图里的故事’这一步,谷歌目前差多远呢?我认为大致是三年——目前谷歌已经可以做到识别图片里是不是有一张人脸,但还没法识别这个人到底是谁、和另一张照片里的人是不是同一个。
  谷歌还能识别出‘图里有没有一只猫’,但识别不出‘这只猫和刚才那只猫是否是同一只’。而大约三年之后,这些都不是问题。谷歌能做到‘从识别出图里有只猫’,到‘识别这一帧在讲什么故事’。
  我们如果紧跟谷歌的步伐,结合阿狸系的图像识别研发,就算留一年余量好了。那么2016年也能搞出‘让机器读懂一帧’的商用技术。当然,这里面肯定需要与阿狸系图像识别团队的深度合作,也需要后续的投资。
  而对我来说,只要做到了‘识别出一帧’,我就能‘大致读懂整个故事’,从而把谷歌需要用纯技术手段解决的问题,用运营手段给暂时绕过去。”
  技术不够,运营补。
  这一招,冯见雄用得屡试不爽了。
  “怎么补?”杰克马的语气已经有些急切,他觉得自己完全被冯见雄天才的脑洞给折服了。
  “杰克,你看过N站的视频么?看过优酷或者youtube的么?”冯见雄不公布答案,而是先反问了一句。
  “都看过吧,不多。”杰克马不明所以,回答得比较谨慎。
  冯见雄终于到了揭开谜底的一刻,他傲然笑道:“那不知道你有没有发现一个细节——优酷和youtube上的视频,其实都是没有‘封面’的,而我们N站的UP主,在上传视频时,已经养成了另外传一张图片作为封面的习惯了——当然,说实话,这个习惯不是UP主们自发养成的,是我让天音硬逼着UP主们养成的。
  或许将来有人看到这一招有效之后,会跟风我。但是一个网站的内容提供者水平,是不可能一朝一夕提高的,用户习惯也不是一朝一夕可以改变的。优酷未来即使学了,他们的UP主在选封面方面的水平,也是远远弱于N站的……”
  后世看过B站视频的人,如果同时也是优酷用户,恐怕不难发现一个现象:
  在B站上,有一批恶劣的人,经常拿封面来实现“标题党”的目的。
  比如,凡是MMD配布模型的初音/巡音/弱音/爱酱舞蹈动画,都会上一张暴露度特别羞耻的图片作为封面,先骗用户点进来。
  然后实际上,这张图的尺度,是明显超过视频过审尺度的,属于“视频里如果真出现这样的镜头,肯定会被404”.因此用户看完全视频,都发现压根儿就没有出现封面图的镜头。
  这时候,用户们就会怒吼“交封不杀!”、“可耻的播放量!”、“下作的播放量!”
  唱到了甜头的B站UP主们,为了骗点击,就从此在“交封不杀”标题党的路上越走越远。
  但是,这其实是B站的一个运营阴谋……嗯,或者说得好听点,策略。
  因为它成功地逼着自己的UP主们,精挑细选一张最能凸显视频主题思想的图,来当封面。
  相比之下,若干年后的优酷视频,虽然也开始有“封面”这个选项,而不是直接拿“非黑屏的第一帧图像直接作为默认封面”。但优酷上的封面,并没有那么精挑细选、标题党。
  B站的这种差异化策略,其实就是在赌,当人工智能读图技术发展到“能看懂某一张图的主题故事”这一道门槛之上、但还没到“识别出一个视频里哪几帧最重要”程度时,这中间这段窗口期里,B站就能在“精确猜测用户对视频内容的喜好”这个领域,实现偷跑。
  偷跑的原理是什么呢? ↑返回顶部↑

章节目录