在这个连开源标注数据集都没有的领域,AI该如何落地?

标签: 开源 数据 没有 | 发表时间:2018-03-29 21:39 | 作者:微胖
出处:https://www.jiqizhixin.com/

对于法律科技领域来说,2014 年元旦是一个重要分水岭。
 
这一天,最高人民法院《关于人民法院在互联网公布裁判文书的规定》生效实施。即日起, 全国四级法院的生效裁判文书, 除涉及国家秘密、个人隐私、未成年人违法犯罪等特殊情形外, 应当在生效后七日内统一上传至中国裁判文书网。
 
「我们承建了裁判文书网的后台。」北京法意科技有限公司常务副总经理陈浩告诉我们。据陈浩回忆,半年多时间,「大概到 2014 年下半年的时候,已经到了几百万量级。」
 
有了数据燃料,剩下的就是方法。

「14 年之后,好多新公司进来。至少,大家的共识是得有数据,没有数据,那个事情做不成。」如今比较活跃的法律 AI 创业公司,比如律品科技、无讼均成立于这一年。
 
两年后,中国裁判文书网已经成为全球最大裁判文书公开平台。数据显示,截至 2016 年 8 月 16 日,中国裁判文书网公开的裁判文书超过 2000 万篇,网站访问量突破 20 亿次。

更多公司开始试水 AI 领域。2016 年,法狗狗和深度好奇成立。一些大公司也开始尝试新技术:华宇设立了子公司华宇元典,而国双和上海百事通等也陆续开始探索人工智能在法律领域的可能性。
 
而作为中国裁判文书网承建商的法意科技,算是中国最早涉足法律数据和实证分析的科技公司之一。

「我们最早源于北京大学的一个科研课题。大家当时在研究法律法规跟案例的关系。裁判文书会引用法律,那么能不能通过案例文本找到被引用的具体法律内容?或者,通过法律条文找到对应案例?」

那还是 2001 年,陈浩正在北大读研究生。后来,由于研究需要更完整的法规数据库和案例数据库支撑,北大法意成立。2003 年,公司开始做数据库。

「那时候就是数据量少,没有公开那么多文书,我们也只能尽可能从各种正式渠道采集。我们一直坚持做数据库,当时也没有觉得最新的计算机技术对数据库的建设和应用有多大影响。」

 现在,完全是另一番景象。
 
2015 年以来,无论 Yann LeCun、Geoff Hinton 还是 Yoshua Bengio 都开始将关注点转移到自然语言。Yann LeCun 认为,NLP 是深度学习接下来要解决的重要问题,Geoffrey Hinton 则认为未来五年最令人兴奋的领域将是文本和视频理解。
 
而国内专业人士在接受我们专访时,也曾表示,「离钱比较近、数据比较丰富、知识结构梳理得比较好的领域」比较适合 NLP 的落地。
 
「比如,法律和医疗。它们是接近同构的两个领域,都有大量和用户交互的专家以及规范的领域知识。类似这类有富集的文本、领域知识、交互记录的领域,比较容易取得自然语言理解和相关任务的突破。」深度好奇 CEO 吕正东曾说。
 
然而,对于一家深耕法律数据和实证分析领域多年的传统公司来说,除了感受到这波人工智能浪潮带来的压力之外(「产品要更加精致」),同时也感受到了许多概念宣传带来的干扰,还发现了一些令人担忧的现象。陈浩多次表示「法意仍然对人工智能持相对保守的态度」,也反复强调了产品的精准度和行业生态建设等问题。
 
以下为采访实录,我们做了不变更原意的编辑。

我感觉现在行业内好多团队似乎对这个环节的重视程度不够,就是大前提和小前提的正确性。但实际上我感觉这是最关键的问题。

吴恩达说人工智能是电力,会给很多行业带来巨大变化。您怎么看近些年法律领域的 AI 热?
 
现在进入法律领域的资本比过去多很多,但没办法和医疗这样的领域比。
 
一方面,对人的价值不同。可能有人一辈子不打官司,但是一辈子进医院的次数就多了。另一方面,投资人的眼光也非常犀利。在人工智能技术落地的难度上,法律可能比医疗还难,因为它涉及价值判断。
 
医疗更多的是用感知技术解决诊断数据获取问题。在这些数据基础上,设定医学模型。但在法律领域,一拳打过去,这是故意伤害还是开玩笑?有很多价值判断在里面。即使用 NLP 分析发现两篇文档特别类似,可能就多了一两个字,但法律结论未必一样,还有可能严重不同。在计算机上实现这个,难度很大。
 
我们认为,人工智能,某种程度上来说是从几十年前传统的统计学发展下来的,只是现在统计方法有了新变化。有监督学习、无监督学习、半监督学习这些方法,几十年前就有了,只是具体算法不断演进了。
 
对应在法律领域内,学者们做研究讲的更多的是实证研究,实证研究用了很多不同的统计方法。在诸如 SPSS 之类的专业统计软件上会看到很多熟悉的机器学习算法。这些模型,有的可能早在 100 年前被研究出来了,一直沿用至今。
 
06 年讲深度学习,实际上只是在感知领域效果比较好。在认知领域,没有见到特别成熟的商业应用,至少在法律领域是这样。
 
从国外看,不管是英美还是大陆法系,类似的产品其实都很窄,解决的是法律领域里某一个更细分的问题,比如说破产。有个法国公司做了一个离婚模型,做完之后提供给公众服务,大家觉得非常好,好像产业就要变天了,但实际上这就是一个针对某个具体问题的具体模型,可能有商业化包装的成分在里面。

解决某个点的问题,还不能直接变革庞大的法律体系。当然,不是说这么做没用。像 IBM Watson,被一些专业团队用来做二次的垂直应用(比如 ROSS——微胖注),产生了一系列产品,验证后可能是成功的。这个应该值得大家去思考学习。
 
大的方向上,大家肯定是不会存在任何异议,但在具体推进和使用上,还是要有具体的问题意识。从具体问题出发的法律智能化服务路子,可能是对的,我们也在做这方面工作。

法意做了哪些相关的 AI 产品?
 
到底什么样的产品属于人工智能领域,其实不好说。
 
比如法律文书生成、合同的合规性审查、文书质量控制、法律风险分析、业务指引等,技术层次很多,不好说是不是都属于人工智能。只能说,计算机在各种模型和算法的支持下,可以输出很多法律服务成果。
 
08 年,我们研发了法律文书质量控制软件(「文书纠错系统」),对文书格式规范、表达规范比如语义逻辑、内容完整方面、上下文逻辑方面和法律依据引用等方面进行质量控制。现在,全国大概有 60% 的法院都在用这个服务。
 
比如,如果未成年人被判了 300 元罚金,这个软件就会提示错误。因为司法解释规定,未成年人犯罪被判处的罚金不得低于 500 元。这款产品也是通过算法、知识库支撑来实现的。光有知识库还不够,还要有算法库。
 
现在,我们在研究法律文书的法律核心问题的识别。
 
如果这种复杂又专业的文书来自最高人民法院,出自水平很高的法官,整个核心法律问题的识别,召回率能达到 75%-80% 之间。也就是说,100 篇法律文书,我们能发现 70 多篇文书的核心法律争议焦点。它的提准率,目前水平在 85% 以上。也就是说,发现 70 多个法律问题中,大概有 60 多个问题是精准的法律核心问题。

不过,面向全国法院的裁判文书后,针对类似的问题,现在的召回率大概只有 30% 多,提准率在 80% 多,提准率相对还是稳定的。
 
感觉法意的态度相对比较谨慎,对吧?

我们的态度一直比较保守。这么多年来,我们的基本经营理念都是坚持准确率指标。
 
这些指标要到什么水准,咱们才会认为结果可以接受,这种技术才能被商业化,否则就只是停留在实验室里的东西。我们不习惯对实验室阶段的技术做宣传。
 
目前市面上,有些团队在研发类案推送系统,甚至会提供倾向性结论。虽然给这种结论有点风险,但是作为给律师提供法律咨询服务的参考,以及法官作为参考不会不加甄别的接受软件提供的结果,所以,我们觉得这类产品还是很有应用价值的。
 
但是,如果把软件提供的法律结论直接提供给老百姓,确实会有很大的风险。

这么多年,我们也做了很多应用,我们对某些具体问题做了一些深入研究和应用,也出来一些具体结果。这些结果,得到过反复的验证。

 能举个例子吗?
 
09、10 年时,我们服务北京大学法学院白建军教授,就最高人民法院的量刑规范化做了一个实证研究的技术支持。
 
当时,最高院出了一个量刑指导意见(试行),作为法官量刑自由裁量权的细化指导。白老师想做个实证研究,看看全国一百多家法院试行指导意见之后量刑实践的实际规律是什么。
 
我们协助白老师做了分析框架模型的技术处理和数据处理。最高法院调了大概一百多家法院三年来的刑事判决书数据。就这三万多篇文书,按照白老师给的模型,对数据进行自动化处理——把所有判决书中记载人罪单位,全部结构化地提取出来。

我们结合了一些方法,目的就是实现高精度的结构化的数据输出。因为这种研究,最关键的就是精准度的问题。虽然大家说大数据追求模糊,不追求精确,但是,我觉得在法律领域内,精确性还是不可回避的一个问题,如果不准,这个结论不能作为决策依据。
 
高精度地将量刑数据提取出来后,白老师以此为基础做了一个研究报告,提交给了最高院。最高院相关负责人还是比较认可部分结论。
 
你看,量刑就是个非常具体的法律问题,要解决的问题也很具体-----整个模型数据的高精度的提取。问题要求的精确程度不同,相对的方法和算法也会有区别。
 
所以,我们坚持对类似这样的具体问题进行具体落地处理。然后,注重它的一些指标,主要是召回率和准确率。
 
不解决问题的刀不是好刀,还有可能是凶器是吧?我们还是希望能够提供特定场合下的高精度的东西给大家。
 

为了严格确保产品质量,还有什么需要特别注意的因素?
 
还有一点很重要,判断结论是 A 还是 B 的概率,是有具体的前提的,即影响或控制结论的前提(也就是三段论的大前提和小前提)的精准度。
 
这甚至是最重要的问题。但有时候可能会忽视了这个问题,都把焦点放在结论上。结论虽然很重要,但是之前支撑的环境变量和参数如果不准,结论等于没保障。所以,要有标准库或其他方法去验证这些大小前提的精准度。
 
比如,没小孩、有家暴,能不能离婚?你告诉他这种情况下,法院判离的概率是 60%。但事实上,判决离婚要考虑的因素不止这两个。还有很多其他因素,比如是不是自由恋爱?法官会考虑其他很多因素。但是,老百姓可能不会输入这个因素,因为他们不懂法律。在缺少这些因素的时候去做算法,结果就会似是而非。前提部分的精准度没有保障,后面就会出问题,甚至会得出截然相反的结论。

所以从技术实践角度来说,每个环节的精准度都要有一个有效的控制,肯定要采取经过反复验证的算法。
 
至于什么样的验证方法最好,没有统一的标准。最高法院也在组织课题研究这些问题。

在这个领域内,我们把基于规则、基于统计的方法结合在一起,它的效果就非常好。我们精度准确率的输出,基本上都是在 97% 以上。

法意有用到深度学习技术吗?
 
我们也有用到深度学习。之前给研究机构或甲方做的研究,为了控制垂直精准度,不会把太弹性的算法会往里加。弹性的算法(也就是基于统计的一些算法)精准度相对是偏低,但这种偏低的算法加入到你现在算法体系里,会提升算法的宽度。
 
比如说,临时有定制的需求,利用现有的成熟算法,两三天就可以训练出一套算法。但是,这套算法的可用性会有问题。现在我们给甲方做的东西都会严格控制精准度。比如裁判文书网。
 
但是,我们也没有太快拓展自己业务边界,还是有选择性的在做。我们的共识是,如果精准度可以达到我们预期,这个任务的风险是可控的。
 
深度学习技术主要用在哪些方面?

现在,我们对深度学习中的这些算法,会结合到知识图谱,比如知识规则的抽取,现在用的比较多。
 
另一个是文本分类。实际上,我们把它思路转化了一下,我们叫它文本的结构化。
 
比如做量刑模型,前提是需要高精度提取量刑情节。某个案件当中,张三犯盗窃、诈骗数罪,是盗窃了 5 万,还是诈骗了 5 万,需要精准提取这样一个文档描述中的数据结果。就这种文档的结构化提取而言,我们用了一些深度学习算法,也结合了一些传统的基于规则的模型做控制。通过评测,效果还不错。
 
文本结构化方面用的比较多。但是,用在作为所谓的规则提取,比如说未成年犯罪的罚金不得低于 500 元这种规则的提取,我们也在尝试着采用类似的技术来解决。
 
因为法律领域内的文档还是具有很强的领域性、行业特征和受控的特点,它的文本内容、结构和文本内容结构和语义后面蕴涵的信息体系,还是一个相对可控的,容易被结构化。和新闻稿相对开放的特点还是有很大的不同。
 
在这个领域内,我们把基于规则、基于统计的方法结合在一起,它的效果就非常好。我们精度准确率的输出,基本上都是在 97% 以上。

 达到这么一个精准率,需要多大的数据量?
 
跑取算法的基数,现在就是 3000 多万。08 年我们做的时候,从几十万开始到几百万,也是慢慢增长,慢慢添加的过程。
 
目前公司的产品研发是基于什么样的思路?
 
基本上还是根据客户的具体需求。一般是甲方提出要求,我们再结合自身技术储备和资源储备,看能不能做出这样的东西来。
 
比如,我们 08 年做的文书纠错系统,就是基于甲方的需求。当时最高法院的主管领导觉得法官在文书质量工作上投入的精力和时间太多了,希望借助技术手段减负,比如,对一些基本问题进行质量控制。
 
正好,我们在这个领域里也有不少基础性工作,有技术积累,就尝试着研发了这款产品的雏形,试用一段时间后,效果还挺好。后来我们发现,对法院裁判文书的质量管控来说,这个应用很有意义,就在满足最高法院需求的基础上,把它变成了一个现在全国范围内的大部分法院都采用的产品。
 
在我们看来,面向一个真的问题,我们做 IT 的才能发挥价值。和 2C 领域不同,在电子政务领域,这个意识特别重要。电子政务有时是基于一些政策,基于行业的一些发展需要而产生,这些需求有可能今年存在,明年可能不存在,波动性比较大。
 
这对产品的迭代不利吧?
 
确实不太利于技术迭代。应该说,这是所有涉足这个领域的法律 AI 公司都会都遇到的问题。

所以反过来,我们也会跟甲方反馈这些问题,持续稳定的研发投入,技术的成熟度才会不断接近用户的理想状态,生态会更良性一些。
 
但就目前来说,还是多参与行业内的一些信息化建设。要接触的多,你才能跟得多,也更清楚行业内建设的重点方向是什么。

 由此看来,法意的核心技术实力也是基于 B 端具体的产品需求逐步积累起来的吧?

是的。我们持续投入,都是基于目标任务。有经济产出也很重要,我们不是纯研发。

我们最早做数据库也是靠人整理。后来,就考虑能不能自动化,就文本里提取了一些东西,做算法来实现结构化抽取目标。因为当时需要整理的信息项比较少(比如法规名称、颁布机关、效力、法规文号等),就只提了一部分,这个时候,已经有算法的思想在里面了。
 
比如,当时做法规数据库还要处理法规效力变化,这是一个动态变化。每天往里面扔一百部法规,可能有一部会对历史库里的几百部法规产生影响,这里就需要有算法实时监测这些变化关联,包括法规之间、上位法和下位法之间、同位阶法条之间的关系。我们当时就用传统的算法来实现的。
 
03、04 年,我们做内部研发平台,将这些经验积累起来,也做了大量调研,想办法让客户搜索更精确。

我们一直清醒地认识到,法规数据库也好,案例数据库也好,提供的这种查询检索功能,一定要比较精准。所以,算法训练出来结果,在进行回归测试时,要有精度的控制。如果精度达不到,这个结果就不能用,否则会误导使用者。
 
从 07、08 年开始,我们遇到越来越多的实证研究统计分析需求,这些需求不再局限于过去简单的五六个字段,有的甚至达到了 4-500 个字段。只有足够丰富的角度去分析它,才能提供一些有价值的分析结论。
 
这些需求也成为我们技术升级的动力。我们发现标引规模太大了,传统的处理方式不够用,就慢慢引入了很多基于统计的算法。在传统的基于规则的方式,基础上增加了一些新的统计算法,结合在一起后,我们发现效果很好。这种方式精准度有保障,整个工作效率也有保障。
 
所以,从 03 年最初做数据库为基础,积累到 07,08 年,核心技术基本上比较成熟了。接下来就是基于应用不断去积累。

策划一款成功的法律 AI 产品的关键,主要还是在于用户需求,要解决的核心任务,将产品带入到场景中。

目前公司的数据库产品怎么收费?
 
我们的法规案例数据库,全国高校每年按服务费收取,几万元不等。全国法学院有法学院和有法律专业的,也就是 600 来家,全部加起来一年也就一千多万的市场规模。
 
考虑过设计面向其他用户群体的产品吗?
 
这么几年来,我们的基本精力主要放在政法机关,高校法学教育机构。这两个受众群体本身就从事法律业务和正在进行法律学习,对法律信息化需求比较刚性,也比较集中和稳定。
 
对于律师行业来说,还是要看要解决律所和律师的什么需求。如果是满足资源管控需求,那就是 ERP。EPR 本身是个好东西,意味着产业化、规模化和标准化。资源优化是一件好事,但恰好碰上律所这类人合组织,就很考验合伙人的管理文化了,看他们需不需要管控。
 
所以我们后来做了一段时间以后,发现这个领域的专业化标准化和规范化,确实还有很大波动,也比较难做,就暂停了这一块业务。
 
不过,律师领域还有一块业务领域,用智能化软件手段辅助律师进行业务处理。这肯定是一个可行的方向。但是,律师本身就是专业能力很强的一个群体,如果软件本身的智能化能力不是特别高,他们的需求也不会那么高。
 
老百姓这块儿市场呢?

 
至少在软件的整个能力没有达到一定高度时(不准、不是很靠谱)的时候,会有误导。再说,提供法律服务的公共渠道并不少。
 
我们现在在内部预演类似产品。尝试做了离婚,民间借贷,道路交通肇事等领域。比如,能不能解除婚姻关系,会给你一个结论。我们这个结论是基于一百多万离婚案件的裁判,不是我们通过规则设置的。不断增加判决书进行训练,结论就有可能会变,但它就是基于这个文本本身。
 
不过我们也一直坚持,如果这个产品精度不是很高,我们不会把它拿出来商用。

在您看来,策划一款成功的法律科技产品的关键是什么?
 
要更多地将智能化的产品带入到具体场景当中。
 
比如 ROSS。他们做非常垂直的领域,比如破产。用户输入情况,系统告诉你能不能去申请破产。将你输的情况,带到所有可以破产案件里,去做一个相似。最后我们会找到相似的案例,并且找到这些案例的结论。然后,我们的结论做一个验证和判断,最后我们给出最终的结论。
 
里面的算法很多,比如你要做相似性比较的算法,把相似东西找出来,只是代表了把相似的情况找出来,但是不代表这些相似情况的法律结论,是 A 还是 B 的时候,或者是有离散趋势的时候,怎么给受众一个相对明确的结论?
 
你可以告诉用户,相似情况中,有 10% 的时候不准破产,90% 的时候允许破产。但是,这个可能不是用户想要的答案。关键还是,用户需要的是一个明确的答案。
 
面向法官的产品,和面向老百姓的产品,解决的问题确实是不一样的。

老百姓没有专业的法律知识,他只管自己要输入自己想说的话,要系统给他一个终极性的结论。比如,离婚的问题。这婚能离吗?你就告诉她能还是不能,需要采用什么策略和手段。他们只是关心这个。

但法官不一样。他要考量案件的全面问题,具体到某个个案时,他可能会更关心偷录的录音证据是不是非法证据。
 
所以,主要还是在于用户需求,要解决的核心任务,将产品带入到场景中。

如果法院想让产业界的人提供好的人工智能的产品,就必须得有一套标准,有一套所谓的那种验证。

咱们法律垂直领域的 AI 研发到底有多花钱?
 
我们的算法,从 03、04 年开始做,一直到 07、08 年出了一个版本。它是一种引擎,一系列算法,一个支撑平台。这多年来,算法的积累一直没有停止。我们的这套算法都是基于应用产品的目标和任务去发展。如果今天又要研发一套新产品,产品中需要增加一些文本分析与理解的维度,我们就会去扩展这个算法。
 
06、07 年研发纠错软件时,之前那些积累就不提了,仅人工成本,前后就投入了 800 万左右。当时,我们是集中研发一款市场可以接受的版本,基于之前的技术积累,进行软件升级。当时的人工成本不比现在,800 万已经是很大一笔投入了。
 
但是,还可能出现这种情况——到最后,你的算法精度始终没办法达到商用水平。这时就会非常纠结了:前期投入那么多,再投进去有可能是无底洞,而且可能还无法评估效果,怎么办?做出来,有时候用到什么场景,也未必有把握。
 
算法,和传统做软件(写代码然后呈现功能),差别很大,本身就是一个很复杂的东西。

对于我们这种规模的公司来说,专注某个垂直领域,认真去做,也会有我们的收益。不过因为各方面原因,投入确实蛮大。
 
听说西方几个大数据库厂商在智能检索上,投入非常高。其中一个巨头会请多少年执业经历以上的律师在一座大山里封闭式做标注,安保措施级别也非常高。而且每年都得做。看来做 NLP 也很烧钱,NLP 和做图像识比起来,到底谁的成本投入更高?
 
自然语言理解比较高。自然语言理解这一块,至少得做语义做标注。比如,咱们法律要做标注,普通的高中生、大专生还不行。至少得大三的学生。人工标注都不准,没法做训练集。所以,得有大量法律职业者给你做这个标注。
 
之前采访过 LawGeex,他们和国内法律 AI 公司差不多,都靠自己的法律专业团队从事数据标记和系统训练。他们也感慨投入非常高昂。
 
单纯的工程师是肯定不够。对于对咱们法律人来说,从产品设计到最后落地,都需要有法律人全程配合。公司设立这方面的专业团队,才能实现垂直领域的高精度应用成效。生态面前,「人人平等。」现在请一些素质比较高的人进来,人工成本还是很高的。
 
我们当初做的时候,也遇到一样的难题。从零变成一百很容易,自己做也可以。数据量从一百变成一万,咱们这些人几乎就受不了这种重复性工作。从 1 万变成 10 万,靠人力已经有点不现实。从 10 万变成 20 万,30 万就更别提了。在这个过程中,我们也会涉及到请人去标注数据,然后让算法教算法,然后让算法变得更聪明。
 
从 03 年开始,我们大概用了一年多的时间把法规数据库做到接近 20 万部,把国内能收集到的法规全部收到数据库。全部都用计算机的算法拆解出来做,通过自动化的方式实现。用一年左右的时间做了个案例数据库。当时就做了这么两个数据库,都是纯粹用计算机来做的。
 
基于人工智能技术应用到法律领域的巨大投入, 需要国家有关部门组织力量, 构建一些应用指标, 如召回率、准确率等, 使得司法公开成果在公平正义的框架下辐射到各个群体。

除了刚才聊到的这些,您觉得目前产业环境中还有哪些不利于法律 AI 发展的因素?
 
缺乏 Benchmark。类似于 ImageNet(图像)、斯坦福 SQuAD(NLP)那样的数据集。不过标注这么大量的数据集太花钱,一般企业玩不起。
 
但我觉得检察院、法院还是有这个条件组织这个事情的。如果法院想让产业界的人提供好的人工智能的产品,就必须得有一套标准,有一套所谓的那种验证。验证也通过你的验证的产品,法院就放心可以用。
 
其实,这种核心技术是我们企业比较深层次的资产,所以我们不会太对外去宣传这样的东西。我们往往宣传效果,比如这个纠错软件的精准率能到 70% 到 80%。如果别的产品达不到我们这个水平,我的产品卖的贵一点,客户也舍得买。
 
如果精准率不达标,你可以去发学术文章,但不能应用于司法实践,因为司法实践可能会造成系统性的偏差。这是法律领域,不是其他什么娱乐领域。所以,我觉得大家还是要回归到问题的起点,还是几个指标的问题。

说白了,整个体系的设计是基于你的软件目标,这个软件目标怎么一层一层地倒推回来,最后下沉到基础算法。

最看好哪些竞争者?
 
有法律基因的公司,懂这个行业的。如果能坚持下来,未来应该说都发展前景都比较好。包括过去从事法律信息化建设的,也算是有法律基因。
 
主要判断标准,还是整个核心团队的核心负责人,他要有很深的法律背景的。现在从整个 IT 行业的发展的趋势来说,越来越黑箱化,就是说,开箱即用。我认为未来可能很有发展前景。
 
法意科技本来就专注于法律领域,现在外部提供了更多的工具,节省了自己的研发成本,现在直接把他们最好的算法拿过来用,并结合法意自主的核心技术结合在一起,形成符合应用指标的应用产品。
 
不过行业的竞争也在加剧,这促使我们必须加快它的这种核心竞争力,加快对外围技术能力的整合。这也是对法意最大的推动力。
 
带着深度学习技术回国的人才呢?
 
倒不是特别看好。全球几大的顶尖的会议, 每年都有好多论文在发表,每年的算法都在推陈出新,不同的研究者都宣称自己在某个点上精度做了什么突破。这些纯算法的这种发展,它是停不下来的。
 
现在这个深度学习的好多平台都越来越封装化,你接入 API 就行。至少 17 年,像腾讯,像百度都开放了 AI 平台,都是开放的,算法变成一个服务。
 
我提到好多其他做人工智能的技术公司,都在开放它的 AI 的平台。开放之后,他们还会把平台积累的一些成熟能力,封装成服务再开发。比如说对于语音识别。这个行业格局一下子又不一样。
 
好多做法律业务有场景的公司,就是利用 BAT 等行业内能够提供通用能力的平台,快速封装,战略合作,切入垂直领域,像用语音识别服务法院的公司就出来好几家。
 
既然算法都能封装成工具,大家都是一样的,那么核心竞争力变成了产品能力。
 
比如,用 LSTM 这种模型,它的参数是要调优的,参数怎么设?需要有法律背景的帮忙。这样,效果才会出得更快。有时候,沟通后发现不大可行,就得立刻终止这样一个方向。对素材更了解,才懂怎么调会更精准。
 
说白了,整个体系的设计是基于你的软件目标,这个软件目标怎么一层一层地倒推回来,最后下沉到基础算法。
 
有时候通过分析,你会发现它只需要解决一个问题,前面那些问题都是冠以整个法律业务场景框架设计的问题,这个前端问题处理好了,深度学习的压力就小。不同的设计方案,他对底层的深度学习算法的要求是不一样的。

 关键的问题还在于产品的设计。
 
这就是我比较注重法律基因的原因。我们通过产品的设计,有时候会回避一些这个有时候很难解决的问题,而不是纠缠于整个产品。
 
给一个深度学习的完整框架,然后你就扔你素材进来,系统给你一个答案,然后这中间你给我海量的文本大数据。我感觉,没有问题域的一个场景,深度学习还没有达到这样的水平。
 
另外,这里面还有一个很关键的原因。至少在法律领域,我觉得是需要我们去这个去辨别的。大数据它更注重解决相关,不注重解决因果。实际也反映了现在这种大数据技术能力,只是给你体现了数据的一个伴随性。

比如,你发现更多的男性,概率机会就要重一点,女性要轻一点。但是,这个东西可能并不是法官要考虑的这个东西。
 
不同法系,比如大陆法系和判例法系,对 AI 技术的采用会有很大影响吗?
 
国内的研究者没有明显发出这样的一个信号。但是,我看到介绍过来的国外文章认为,判例法系的国家,对于这种所谓的法律人工智能的认可度更高。大陆法系这样的成文法的国家,认可度相对低。
 
我理解的是这样的。AI,是通过特征相似性来输出结论。特征相似性,是基于大量案例描述而形成的一个集合体。判例法系,就是以案例的方式描述某个法律规则。每一个案例就像一张图片,告诉你什么是猫,什么是狗。
 
而成文法系中,法条一定要抽象,变成一个法律的规则,以此为基础进行审判,需要一个具体适用的过程。就从这个角度来说,我认为,在计算机理解上,制定法比判例法难度大。
 
你让计算机去理解一个抽象的法律规定,然后输入一个具体适用的判断,这很有难度。至少你要以文本描述实例的方式来表达一个游戏规则(这种数据对象),才能更容易被计算机理解和控制。计算机没办法理解人类的抽象思维。我们有时候理解法条都难理解,更何况电脑。

相关 [开源 数据 没有] 推荐:

在这个连开源标注数据集都没有的领域,AI该如何落地?

- - 机器之心
对于法律科技领域来说,2014 年元旦是一个重要分水岭. 这一天,最高人民法院《关于人民法院在互联网公布裁判文书的规定》生效实施. 即日起, 全国四级法院的生效裁判文书, 除涉及国家秘密、个人隐私、未成年人违法犯罪等特殊情形外, 应当在生效后七日内统一上传至中国裁判文书网. 」北京法意科技有限公司常务副总经理陈浩告诉我们.

红帽CEO:没有开源就没有谷歌和Facebook

- 幻幽 or A書 - cnBeta.COM
美国科技博客BusinessInsider近日对红帽CEO吉姆・怀特赫斯特(Jim Whitehurst)进行了采访,怀特赫斯特称,如今开源应用几乎无处不在,科技公司、银行和股票交易所等都是使用. 没有开源,谷歌和Facebook根本不可能继续存在.

Facebook开源闪存数据库RocksDB

- - IT经理网
本周四Facebook宣布开源其嵌入式数据库 RocksDB(一种嵌入式Key-value存储系统),该数据库能够充分利用闪存的性能,大大提升应用服务器的速度. Facebook用RocksDB来驱动一些面向用户的应用,这些应用由于需要通过网络访问外部存储而性能低下,此外Facebook还用RocksDB来解决固态硬盘IO利用率不高相关的一些问题.

开源的数据挖掘工具

- - CSDN博客云计算推荐文章
本文的主要内容编译自Blaz Zupan和Janez Demsar的一篇论文(Open-Source Tools for Data Mining). 我仅仅选择其中的要点和大家共享,同时加入一些个人的点评意见. 此外,对开源的数据挖掘工具有兴趣的同仁,可以关注以下 OSDM09这个workshop,它会在PAKDD'09上同时进行,主要讨论的就是开源数据挖掘工具的议题.

Netflix开源数据流管理器Suro

- - IT经理网
Netflix近日开源了一个叫做Suro的工具,可以收集来自多个应用服务器的事件数据,并实时定向发送到目标数据平台如Hadoop和Elasticsearch. Netfix的这项创新有望成为大数据主流技术. Netflix用Suro进行数据源到目标主机的实时导向,Suro不但在Netflix的数据管道中扮演关键角色,而且也是脱胎大型互联网公司的众多开源数据分析工具中的佼佼者.

开源地理位置数据库:tile38

- - 标点符
Tile38是地理定位数据存储,空间索引和实时地理围栏. 它支持多种对象类型,包括纬度/经度点,边界框,XYZ平铺,Geohashes和GeoJSON. 地理空间索引,支持类似附近、包含、相交... 通过 webhooks或 pub/sub channels实现实时地理围栏. 支持多种对象: lat/lon,  bbox,  Geohash,  GeoJSON,  QuadKey, and  XYZ tile..

没有数据分析,物联网怎么任性

- - 博客园_新闻
物联网快速发展,成为继大数据之后下一个 IT 热词. 物联网概念虽然兴起了,但是物联网技术能不能发挥出作用呢?这还有待观察. 物联网领域,数据分析发挥着越来越重要的作用. 业内人士向人们解释起物联网,常常会举智能家居的例子,比如智能冰箱. 通过在冰箱内安装传感器,冰箱可以知道食物是否即将到期,需要如何保存,然后自动地控制温度或发出警报.

开源数据平台Kafka落选!InfoWorld最佳开源数据平台奖公布

- -
AI前线导读:一年一度由世界知名科技媒体InfoWorld评选的Bossie Awards于9月26日公布,本次Bossie Awards评选出了最佳数据库与数据分析平台奖、最佳软件开发工具奖、最佳机器学习项目奖等多个奖项. 在最佳开源数据库与数据分析平台奖中,Spark和Beam再次入选,连续两年入选的Kafka这次意外滑铁卢,取而代之的是新兴项目Pulsar;开源数据库入选的还有PingCAP的TiDB.

Twitter即将开源即时数据处理工具Storm

- Andy - 36氪
开发者的好消息:Twitter刚刚在博客上宣布将在9月19日的Strange Loop大会上公布Storm的代码. 这个类似于Hadoop的即时数据处理工具是BackType开发的,后来被Twitter收购用于Twitter. Twitter列举了Storm的三大类应用:. 信息流处理{Stream processing}: Storm可用来实时处理新数据和更新数据库,兼具容错性和可扩展性.

开源网站分析软件Piwik的数据库表结构

- sun - 标点符
Piwik是一套基于Php+MySQL技术构建,能够与Google Analytics相媲美的开源网站访问统计系统,前身是phpMyVisites. Piwik可以给你详细的统计信息,比如网页浏览人数, 访问最多的页面, 搜索引擎关键词等等,并且采用了大量的AJAX/Flash技术,使得在操作上更加便易.