[分享发现] 汉语中的词频及笔画数分布规律探析

标签: 分享 发现 汉语 | 发表时间:2018-09-15 12:59 | 作者:metaquant
出处:https://www.v2ex.com/

一篇汉字词频与笔画数规律的数据分析小文,和大家交流,也请大佬们多指教,V2EX 不能很好的显示数学公式,所以贴上自己的博文地址和 GitHub 仓库地址:

博文地址: https://md.metaquant.org/2018/words.html

notebook 地址: https://github.com/sorrowise/chinese_data_analysis/blob/master/chinese_data_analysis_CH.ipynb

GitHub repo: https://github.com/sorrowise/chinese_data_analysis

以下为正文:




一、引言

大约八十年前,哈佛大学的语言学家乔治·金斯利·齐普夫(George Kingsley Zipf)对英语中的词频分布进行了研究,发现了一条经验规律,他发现:如果把一篇较长文章中每个词出现的频次统计起来,按照高频词在前、低频词在后的递减顺序排列,并用自然数个这些词编上的等级序号,即频次最高的词等级为 1,频次次之的等级为 2 等等,若用$F$表示频次,$R$表示序号,则有$FR=C$($C$为常数),也就是说词语的频次和其频次排名呈反比例关系。假如以单词的频次排名为横轴,以单词的频次为纵轴绘制散点图,会发现图形大致呈现双曲线形。为了数学上处理的方便,我们可以对词频及词频排名取对数(自然对数或以十为底的对数均可),考虑到:$F=\frac{C}{R}$,则有: $$ log(F)=log(C)-log(R) $$ 所以$log(F)$与$log(R)$应呈线性关系,在图形上应该是一条直线,如下:

受到齐普夫的启发,其它学者也纷纷验证该定律对其它语言的适用性,他们发现齐普夫定律在很多语言中也是成立的。如上图,频次排名对数与频次的对数成线性关系。一个很自然的问题是,该定律在汉语中的适用性如何?

汉字作为象形文字,显著不同于以英语为代表的拼音文字,其语言的基本单位为单字,然后再由单字组成两字词、三字词等以表达更加复杂的意义。拼音文字的基本单位为单词,意义的扩展通过创造新词汇或者拼接已有单词组成新词汇来实现。因此,英语可以以单词为单位来统计词频,而汉语则必须以词语为基本单位来统计,这既包括单字,也包括多字词,只有这样才能准确描述汉语词频的分布规律

利用教育部语言文字应用研究所计算语言学研究室提供的 在线语料库字词频数据,我们可以检验齐普夫定律在汉语中的适用性,加深我们对汉语词频分布规律的认识。由于以上数据并不包括汉字的笔画数数据,我们可以利用笪骏提供的 现代汉语单字频率列表,进一步研究汉字笔画数的分布规律。

我们使用 jupyter notebook 对以上数据进行分析,相关 notebook 及数据文件已经上传到 这个仓库,大家可以下载数据进行分析验证。数据文件版权归原作者所有,如有侵权请通知我删除。

二、汉语词频分布规律

首先,我们导入一些数据分析必要的库,并做一些初始化设置:

  import numpy as np
import statsmodels.api as sm
import matplotlib.pyplot as plt
import warnings
warnings.filterwarnings("ignore")
import seaborn as sns
sns.set(style="white",color_codes=True)
import pandas as pd
%matplotlib inline
plt.rcParams['figure.figsize'] = (15,9.27)

然后导入 word_freq.xlsx这个数据文件,这个数据文件收录了现代汉语语料库中出现次数大于 50 次的词的出现次数、频率与累计频率数据。该语料库的规模为 2000 万字,该表共收集了 14629 个词,既包括单字,也包括多字词。让我们先看下数据的基本情况:

  df = pd.read_excel('word_freq.xlsx')
df.head(10)
<thead> </thead>
rank word freq freq_percent cum_freq_percent
0 1 744863 7.7946 7.7946
1 2 130191 1.3624 9.1570
2 3 118823 1.2434 10.4004
3 4 118527 1.2403 11.6407
4 5 83958 0.8786 12.5193
5 6 81119 0.8489 13.3682
6 7 65146 0.6817 14.0499
7 8 53556 0.5604 14.6103
8 9 52912 0.5537 15.1640
9 10 52728 0.5518 15.7158

数据的前十行显示如上表:其中第一列为汉字中词语按出现频次从高向低排名,如“的”字在语料库中出现的次数最多,则排在第一名;第二列为对应的汉字及词语;第三列为该汉字或词语在语料库中出现的次数,如“的”在语料库中共出现了 744863 次;第四列表示该汉字或词语在语料库中出现的频率的百分比,如“的”出现的频率为 7.7946%;第五列为累计频率,为该汉字(词语)及排名靠前的汉字(词语)累计出现的频率,如到排名第十的汉字“我”,前十名汉字出现的累计频率为 15.7158%。

为了之后分析的方便,我们需要另外计算三列数据,分别为词语频次排名的以 10 为底的对数、频次以 10 为底的对数及词语中汉字数(单字词还是多字词),则:

  df['log_rank'] = np.log10(df['rank'])
df['log_freq'] = np.log10(df['freq'])
df['word_count'] = df['word'].apply(len)
df.head(10)
<thead> </thead>
rank word freq freq_percent cum_freq_percent log_rank log_freq word_count
0 1 744863 7.7946 7.7946 0.000000 5.872076 1
1 2 130191 1.3624 9.1570 0.301030 5.114581 1
2 3 118823 1.2434 10.4004 0.477121 5.074901 1
3 4 118527 1.2403 11.6407 0.602060 5.073817 1
4 5 83958 0.8786 12.5193 0.698970 4.924062 1
5 6 81119 0.8489 13.3682 0.778151 4.909123 1
6 7 65146 0.6817 14.0499 0.845098 4.813888 1
7 8 53556 0.5604 14.6103 0.903090 4.728808 1
8 9 52912 0.5537 15.1640 0.954243 4.723554 1
9 10 52728 0.5518 15.7158 1.000000 4.722041 1

word_count列,我们可以看到,词频表中收录的最长的词包含十个单字,平均而言包含两个单字。通过简单的统计,我们可以看到词语中汉字个数的分布规律如下表:其中两字词出现的次数最多,为 10476 次,占比达到 71.61%;其次为单字词,为 2391 次,占比达到 16.34%。

  # Count the frequency and frequency of occurrences of words of various lengths

word_length = pd.DataFrame(df.word_count.value_counts()).sort_index()
word_length.columns = ['freq']
word_length['freq_percent'] = 100*word_length['freq']/sum(word_length['freq'])
word_length.head(10)
<thead> </thead>
freq freq_percent
1 2391 16.344248
2 10476 71.611183
3 1181 8.073006
4 506 3.458883
5 43 0.293937
6 22 0.150386
7 8 0.054686
8 1 0.006836
10 1 0.006836

现在让我们看看汉语中词频的分布规律是否符合齐普夫定律:

  sns.regplot(df.log_rank,df.log_freq)
plt.xlim(0,4.3)
plt.ylim(1,7)
plt.title('The relationship between the logarithm of the frequency ranking and the logarithm of the frequency')

png

从上图可以看出,频次排名的对数与频次的关系大致是线性关系,基本符合齐普夫定律。让我们对两个变量做一个线性回归,观察相关指标是否表明两者之间的线性关系足够强。首先,我定义了一个辅助函数,调用 statmodels 库中的相关函数进行线性回归并返回回归结果。

  def reg(y,*args):
    import statsmodels.api as sm
    x = np.vstack((args)).T
    mat_x = sm.add_constant(x)
    res = sm.OLS(y,mat_x).fit()
    print(res.summary())

reg(df.log_rank,df.log_freq)
                              OLS Regression Results                            
==============================================================================
Dep. Variable:               log_rank   R-squared:                       0.990
Model:                            OLS   Adj. R-squared:                  0.990
Method:                 Least Squares   F-statistic:                 1.502e+06
Date:                Sat, 15 Sep 2018   Prob (F-statistic):               0.00
Time:                        10:27:07   Log-Likelihood:                 25420.
No. Observations:               14629   AIC:                        -5.084e+04
Df Residuals:                   14627   BIC:                        -5.082e+04
Df Model:                           1                                         
Covariance Type:            nonrobust                                         
==============================================================================
                 coef    std err          t      P>|t|      [0.025      0.975]
------------------------------------------------------------------------------
const          5.7144      0.002   3450.432      0.000       5.711       5.718
x1            -0.8846      0.001  -1225.535      0.000      -0.886      -0.883
==============================================================================
Omnibus:                    15756.722   Durbin-Watson:                   0.007
Prob(Omnibus):                  0.000   Jarque-Bera (JB):          2257816.630
Skew:                          -5.242   Prob(JB):                         0.00
Kurtosis:                      62.952   Cond. No.                         12.8
==============================================================================

Warnings:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.

我们可以发现回归的$R^2=0.99$,并且常数项与自变量的 p 值都小于 1%,这都表明频次的对数与频次排名的对数在很大程度上呈线性关系,这与齐普夫定律的预言一致。但是,我们也可以从回归图形中发现,低频词语的拟合程度更好,而高频词语的拟合程度较差,这表现在,前者基本都位于拟合直线上,而后者则大多位于拟合直线的下方。这说明对于汉语的高频词语而言,齐普夫定律预言的频率要高于高频词语的实际出现频率。我们可以通过下面的残差图更加直观的观察到这一点:

  sns.residplot(df.log_rank,df.log_freq)
plt.ylabel('resid')
plt.title('The relationship between the residual and the logarithm of the frequency ranking')

png

因此,为了观察不同频次词语的分布规律,我们可以用四分位将频次与排名数据分为四组:前 25%的词语为出现次数大于等于 296 ; 25%至 50%分位的词语的出现次数位于 126 与 296 之间; 50%分位至 75%分位的词语出现次数位于 51 至 126 之间;最后 25%的词语出现频次小于等于 51 次,由于原数据中删除了所有出现次数小于等于 50 次的词语,则最后一部分数据的频次都为 51 次为一个常数,此一部分的回归没有什么意义,但为了完整性,我们还是将其列出来。我们对这四组数据分别做回归并观察其残差图:

  log_rank_first = df.log_rank[df.freq>=296]
log_freq_first = df.log_freq[df.freq>=296]
log_rank_second = df.log_rank[(126<=df.freq) & (df.freq<296)]
log_freq_second = df.log_freq[(126<=df.freq) & (df.freq<296)]
log_rank_third = df.log_rank[(51<df.freq) & (df.freq<126)]
log_freq_third = df.log_freq[(51<df.freq) & (df.freq<126)]
log_rank_fourth = df.log_rank[df.freq<=51]
log_freq_fourth = df.log_freq[df.freq<=51]


plt.subplot(221)
sns.regplot(log_rank_first,log_freq_first)
plt.title('$frequency \geq 296,R^2=0.992$')
plt.xlabel('')
plt.subplot(222)
sns.regplot(log_rank_second,log_freq_second)
plt.title('$126 \leq frequency \leq 296,R^2=0.999$')
plt.xlabel('')
plt.ylabel('')
plt.subplot(223)
sns.regplot(log_rank_third,log_freq_third)
plt.title('$51<frequency<126,R^2=1.000$')
plt.subplot(224)
sns.regplot(log_rank_fourth,log_freq_fourth)
plt.title('$frequency \leq 51,R^2=0.000$')
plt.ylabel('')

png

  plt.subplot(221)
sns.residplot(log_rank_first,log_freq_first)
plt.title('$frequency \geq 296,R^2=0.992$')
plt.xlabel('')
plt.ylim(-1,0.2)
plt.subplot(222)
sns.residplot(log_rank_second,log_freq_second)
plt.title('$126 \leq frequency \leq 296,R^2=0.999$')
plt.xlabel('')
plt.ylabel('')
plt.ylim(-0.1,0.1)
plt.subplot(223)
sns.residplot(log_rank_third,log_freq_third)
plt.title('$51<frequency<126,R^2=1.000$')
plt.ylim(-0.1,0.1)
plt.subplot(224)
sns.residplot(log_rank_fourth,log_freq_fourth)
plt.title('$frequency \leq 51,R^2=0.000$')
plt.ylabel('')

png

我们可以看到对于 25%-75%分位的词语,线性回归的拟合情况非常好,$R^2$均接近于一,而前 25%的高频词语拟合程度就不太好,$R^2$只有$0.992$,而大部分的回归残差都来自于排名前 300 名的词语。总之,汉语词频的分布规律基本与齐普夫定律保持一致,而低频词语的一致性程度更高。从回归结果我们可以得到$log(f)=5.71-0.88log(r)$,则频次排名每增加 1%,其出现频次要下降 0.88%。

三、汉字笔画数分布规律

这篇论文里,Bengt Sigurd 等人发现英语中词语的长度与其出现频率的关系大致服务 伽马分布,如下图:

尽管在汉语中没有单词长度这种说法,但汉字的笔画数与其有一定相似之处,它们都衡量了人们为了表达特定的含义而愿意付出多少代价。词语的长度不能太短,因为这样能够形成的词语就太少,不能表达足够丰富的含义;词语的长度也不能太长,这样记忆与表达的难度会提升,从而影响沟通的效率。这就使得英语中长度太长或太短的词语出现的频率都比较低,同样的道理对于汉字的笔画数也是适用的。我们可以使用现有数据,来检验一下汉字笔画数的分布规律是否与英语单词长度的分布规律类似,都服从伽马分布。

首先,让我们导入数据并看一下数据的基本信息:

  sc = pd.read_excel('char_stroke_count.xlsx')
sc.head(10)
<thead> </thead>
rank char stroke_count
0 1 8
1 2 1
2 3 9
3 4 4
4 5 2
5 6 6
6 7 2
7 8 6
8 9 7
9 10 5

该表格共收录了 10000 个汉字,其中第三列为汉字的笔画数,我们可以首先看下汉字笔画数的直方图,从而让我们对汉字笔画数的分布情况有一个直观的理解(如下图)。我们可以看到,笔画数为 10,11 与 12 的汉字较多,频率均处于 9%-10%之间。如果笔画数小于 11,则随着笔画数下降,出现的频率逐渐降低;反之,笔画数大于 11,则随着笔画数上升,出现的频率逐渐降低。

  count_pert = []
for i in range(1,36):
    count_pert.append(len(sc.stroke_count[sc.stroke_count==i])/100.)

x = np.arange(1,36)
sns.barplot(x,count_pert)
plt.xlabel('Number of strokes of Chinese characters')
plt.ylabel('Frequency')
plt.title('Histogram of the number of strokes in Chinese characters')

png

接下来让我们比较汉字笔画数的实际分布与伽马分布与正态分布的相似程度(如下图),我们可以发现,实际分布与伽马分布非常接近,而与正态分布相距较远。通过绘制 quantiles-quantiles 图,我们可以更加直观的观察到这一点:

  from scipy.stats import norm,gamma,probplot
sns.distplot(sc.stroke_count,hist=False,kde_kws={"shade": True,"label":"actual distribution"},
             fit=gamma,fit_kws={"label":"gamma distribution"},color='c')
sns.distplot(sc.stroke_count,hist=False,fit=norm,
             fit_kws={"label":"norm distribution","color":"red","linestyle":"--"})
plt.ylabel('frequency')
plt.title('real distribution v.s. gamma distribution v.s. norm distribution')
plt.ylim(0,0.1)
plt.legend(frameon=True,fontsize=12)

png

  plt.subplot(121)
probplot(sc.stroke_count,plot=plt,dist='gamma',sparams=(12.68,),fit=True)
plt.title('actual distribution v.s. gamma distribution')
plt.subplot(122)
probplot(sc.stroke_count,plot=plt,dist='norm',fit=True)
plt.title('actual distribution v.s. norm distribution')

png

四、结论

有趣的是,虽然英语与汉语之间存在着天壤之别,它们的分布规律却有着很大的相似性。至于为什么会出现这种分布规律,现在还没有一个统一的解释。对于齐普夫定律的成因,目前至少有三种解释:第一种是齐普夫本人的解释,他认为这体现了人思维的经济性,即人类在不影响沟通效率的情况下尽可能的减少记忆词语的负担,这导致了某些常用词汇出现的频率非常高,已经完全足以应付日常生活中的大多数沟通场景。第二种观点认为齐普夫定律是“强者愈强、弱者愈强”这一规律的结果,某些常用词汇会被使用的越来越多,最终会导致类似于幂律分布的情况,其表现形式便是齐普夫定律。第三种观点:很多学者发现,齐普夫定律不仅在语言领域存在,而且在某些与语言并无关系的领域,如城市人口数排名与其人口的关系也服从齐普夫定律。这使得学者们倾向于相信,齐普夫定律的真正原因恐怕与语言的性质关系不大,而是与某种数据生成的过程有关。如 Xavier 在他的论文 Zipf's Law for Cities: An Explanation中给出了一种简单而又美妙的答案:不需要任何条件,只要所有城市人口都以一个同分布的随机速度增长,那么最后的城市人口就会符合 Zipf 法则。这个简单的条件也是 Zipf 分布横跨语言、经济、地理数界的原因之一。

五、参考资料

  1. Zipf ’ s law. (2018). In Wikipedia. Retrieved from https://en.wikipedia.org/w/index.php?title=Zipf%27s_law&oldid=859042231
  2. The mystery of Zipf. (2008, August 21). Retrieved 14 September 2018, from https://plus.maths.org/content/mystery-zipf
  3. Powers, D. M. (1998). Applications and explanations of Zipf ’ s law. In Proceedings of the joint conferences on new methods in language processing and computational natural language learning (pp. 151 – 160). Association for Computational Linguistics.
  4. Gabaix, X. (1999). Zipf ’ s law for cities: an explanation. The Quarterly Journal of Economics, 114(3), 739 – 767.
  5. Li, W. (1992). Random texts exhibit Zipf ’ s-law-like word frequency distribution. IEEE Transactions on Information Theory, 38(6), 1842 – 1845.
  6. Newman, M. E. (2005). Power laws, Pareto distributions and Zipf ’ s law. Contemporary Physics, 46(5), 323 – 351.
  7. Shtrikman, S. (1994). Some comments on Zipf ’ s law for the Chinese language. Journal of Information Science, 20(2), 142 – 143.
  8. Sicilia-Garcia, E. I., Ming, J., & Smith, F. J. (2003). Extension of Zipf ’ s Law to Word and Character N-grams for English and Chinese. International Journal of Computational Linguistics & Chinese Language Processing, Volume 8, Number 1, February 2003: Special Issue on Word Formation and Chinese Language Processing, 8(1), 77 – 102.
  9. Kanter, I., & Kessler, D. A. (1995). Markov processes: linguistics and Zipf ’ s law. Physical Review Letters, 74(22), 4559.

相关 [分享 发现 汉语] 推荐:

[分享发现] 汉语中的词频及笔画数分布规律探析

- - V2EX
一篇汉字词频与笔画数规律的数据分析小文,和大家交流,也请大佬们多指教,V2EX 不能很好的显示数学公式,所以贴上自己的博文地址和 GitHub 仓库地址:. 博文地址: https://md.metaquant.org/2018/words.html. notebook 地址: https://github.com/sorrowise/chinese_data_analysis/blob/master/chinese_data_analysis_CH.ipynb.

研究发现大多数BT分享者遭监控

- - Solidot
伯明翰大学计算机科学家的一项研究发现(PDF),一位非法文件共享者下载受欢迎内容三小时内就会被监控公司记录下来. 研究人员对监控规模如此庞大感到惊讶. 版权拥有者会利用这些数据去打击非法下载. 研究人员开发出一个软件,功能上类似BitTorrent客户端,但能记录所有与该客户端的连接. 日志显示监控公司会事无巨细的记录所有人,不管下载者是新手还是BT狂热者.

[分享发现] hosts更新网址推荐,懂得收藏即可

- Marshall - V2EX
SmartHosts是一个在Google Code上维护更新的Hosts文件,为了方便用户修改,提供了简单方便的一键更新程序. 完整的hosts文件,直接覆盖系统的hosts文件即可,按需要加入系统中亦可:. 墙内镜像:https://smarthosts.sinaapp.com/hosts. [推荐] BAT版一键更新程序是目前比较稳定好用的版本,但因为bat批处理的局限性因而停止加入新功能,但仍旧更新它将写入的hosts文件:.

三位天文学家因发现宇宙暴涨分享2011年诺贝尔物理学奖

- 微笑!?~ - Solidot
美国加州伯克利大学的天体物理学家Saul Perlmutter,澳大利亚国立大学Brian P.Schmidt和美国约翰霍普金斯大学Adam G.Riess因通过超新星研究发现宇宙加速膨胀而分享2011年诺贝尔物理学奖. 三位天体物理学家研究Ia型超新星,此类超新星是一颗致密的恒星爆炸产生的,它重量堪比太阳,但体积只有地球大小,它的爆炸所喷射出的辐射与整个银河相当.

三位科学家因免疫系统发现而分享2011年诺贝尔医学奖

- xing - Solidot
美国科学家Bruce Beutler、法国科学家Jules Hoffmann和加拿大科学家Ralph Steinman因在免疫系统上的重要发现而分享了2011年诺贝尔医学或生理学奖. Beutler和Hoffmann的贡献是发现如何激活先天免疫,而Steinman的贡献是发现树突状细胞及其在后天免疫系统中的作用.

“发现身边优惠”的移动应用“爱折客”用户数达到100万,一些数据分享

- hi3w - 36氪
在今年7月底的36氪开放日上海站,爱折客创始人范鼎参加我们的活动并做了产品展示(报道链接),当时他们的注册用户是10万人,现在,不到三个月的时间,爱折客告诉我们,他们的注册用户已经突破了100万,每天活跃用户超过20000个. 爱折客是一个支持iPhone和Android的移动应用,用户可以通过爱折客应用可以查看周围有哪些打折信息,用户可以添加自己感兴趣的商家,商家发布优惠后用户可以收到推送通知.

[转载]倒霉的汉语

- Sam - 中文热文榜|最新
还有 jin, yao, YALAN, 推荐,查看全部 15 个推荐. 蔡康永的博客发表于2010-05-16 12:28:24. 原文地址:倒霉的汉语作者:凹凸MAN. 当一个人听不懂另一个人在说啥的时候,他会怎么发牢骚呢. 英语:“It is Greek to me!”(“简直就是希腊语. 南非语:“Dis Grieks vir my!”(又是希腊语).

寻找汉语网络的中心:“的”

- 佳佳 - Solidot
语言系统是一种复杂的网络结构体. 浙江大学的研究人员在《科学通报》上发表了一篇论文,探寻汉语网络结构的中心节点. 有意思的是,研究人员选择《实话实说》和《新闻联播》作为研究资料. 结果表明3个虚词均是网络的中心节点,但地位各有不同,它们对网络整体结构的影响也有较大区别. 其中“的”是整的网络最“中心”节点,“了”和“在”是局部中心节点.

来听听古汉语的发音

- 龙 - 叫兽与你同在
这是一帮业余学者研究出来的结果,就是说封神榜那个时代,. 大家听听看,接近哪个地方的方言. 配音根据郑张尚芳先生的上古汉语拟音. 详细拟音表请参见《上古音系》上海教育出版社.

分享图片

- 糖果 - 变态辣椒的时政漫画