天天看点

Python正则表达式匹配中文

从字符串的角度来说,中文不如英文整齐、规范,这是不可避免的现实。本文结合网上资料以及个人经验,以 python 语言为例,稍作总结。欢迎补充或挑错。 

通常我们可以使用 repr()函数查看字串的原始格式。这对于写正则表达式有所帮助。 

    python 的 re模块有两个相似的函数:re.match(), re.search 。

    两个函数的匹配过程完全一致,只是起点不同。

    match只从字串的开始位置进行匹配,如果失败,它就此放弃;

    而search则会锲而不舍地完全遍历整个字串中所有可能的位置,直到成功地找到一个匹配,或者搜索完字串,以失败告终。

    如果你了解match的特性(在某些情况下比较快),大可以自由用它;如果不太清楚,search通常是你需要的那个函数。

    从一堆文本中,找出所有可能的匹配,以列表的形式返回,这种情况用findall()这个函数。例子见后面的代码。 

    unicode下,汉字的格式如\uxxxx,只要找到对应的字符集的范围,就能匹配相应的字串,方便从多语言文本中挑出所需要的某种语言的文本。不过,对于像日文这样的粘着语,既有中文字符,又有平假名片假名,或许结果会有所偏差。 

两种字符类可以并列在一起使用,例如,平假名、片假名、中文的放在一起,u"[\u4e00-\u9fa5\u3040-\u309f\u30a0-\u30ff]+",来自定义所需要匹配的文本。 

匹配中文时,正则表达式和目标字串的格式必须相同。这一点至关重要。或者都用默认的utf8,此时你不用额外做什么;如果是unicode,就需要在正则式之前加上u""格式。 

可以这样定义unicode字符串:string=u"我爱正则表达式"。如果字串不是unicode的,可以使用unicode()函数转换之。如果你知道源字串的编码,可以使用newstr=unicode(oldstring, original_coding_name)的方式转换,

例如 linux 下常用unicode(string, "utf8"),windows 下或许会用cp936吧

Python正则表达式匹配中文

# -*- coding: utf-8 -*-   

import sys  

import re  

reload(sys)  

sys.setdefaultencoding('utf8')  

s=""" 

            en: regular expression is a powerful tool for manipulating text.  

            zh: 汉语是世界上最优美的语言,正则表达式是一个很有用的工具 

            jp: 正規表現は非常に役に立つツールテキストを操作することです。  

            jp-char: あアいイうウえエおオ  

            kr:정규 표현식은 매우 유용한 도구 텍스트를 조작하는 것입니다.  

            """  

print "原始utf8字符"  

#utf8  

print "--------"  

print repr(s)  

print "--------\n"  

#非ansi  

re_words=re.compile(r"[\x80-\xff]+")  

m =  re_words.search(s,0)  

print "非ansi字符"  

print m  

print m.group()  

#unicode  

s = unicode(s)  

print "原始unicode字符"  

#unicode chinese  

re_words = re.compile(u"[\u4e00-\u9fa5]+")  

print "unicode 中文"  

res = re.findall(re_words, s)       # 查询出所有的匹配字符串  

if res:  

    print "there are %d parts:\n"% len(res)   

    for r in res:   

        print "\t",r   

        print   

#unicode korean  

re_words=re.compile(u"[\uac00-\ud7ff]+")  

print "unicode 韩文"  

#unicode japanese katakana  

re_words=re.compile(u"[\u30a0-\u30ff]+")  

print "unicode 日文 片假名"  

#unicode japanese hiragana  

re_words=re.compile(u"[\u3040-\u309f]+")  

print "unicode 日文 平假名"  

#unicode cjk punctuation  

re_words=re.compile(u"[\u3000-\u303f\ufb00-\ufffd]+")  

print "unicode 标点符号"  

下面是google出现的几种主要非英文字符集的编码范围

主要非英文语系字符范围

范围

编码

说明

2e80~33ffh

中日韩符号区

收容康熙字典部首、中日韩辅助部首、注音符号、日本假名、韩文音符,中日韩的符号、标点、带圈或带括符文数字、月份,以及日本的假名组合、单位、年号、月份、日期、时间等。

3400~4dffh

中日韩认同文字扩充a区

中日韩认同表意文字扩充a区,总计收容6,582个中日韩汉字。

4e00~9fffh

中日韩认同表意文字区

中日韩认同表意文字区,总计收容20,902个中日韩汉字。

a000~a4ffh

彝族文字区

收容中国南方彝族文字和字根

ac00~d7ffh

韩文拼音组合字区

收容以韩文音符拼成的文字

f900~faffh

中日韩兼容表意文字区

总计收容302个中日韩汉字

fb00~fffdh

文字表现形式区

收容组合拉丁文字、希伯来文、阿拉伯文、中日韩直式标点、小符号、半角符号、全角符号等。

比如需要匹配所有中日韩非符号字符,那么正则表达式应该是^[\u3400-\u9fff]+$

理论上没错, 可是我到msn.co.ko随便复制了个韩文下来, 发现根本不对, 诡异

再到msn.co.jp复制了个’お’, 也不得行..

然后把范围扩大到^[\u2e80-\u9fff]+$, 这样倒是都通过了, 这个应该就是匹配中日韩文字的正则表达式了, 包括我們臺灣省還在盲目使用的繁體中文

而关于中文的正则表达式, 应该是^[\u4e00-\u9fff]+$, 和论坛里常被人提起的^[\u4e00-\u9fa5]+$很接近

需要注意的是论坛里说的^[\u4e00-\u9fa5]+$这是专门用于匹配简体中文的正则表达式, 实际上繁体字也在里面, 我用测试器测试了下’中華人民共和國’, 也通过了, 当然, ^[\u4e00-\u9fff]+$也是一样的结果。

    那么我们很多时候如果要匹配的内容如果既有中文也有英文,比如我们要匹配一个可以由中文字母以及一些其他字符组成的标题,该怎么写呢,我么接着看下面的代码

Python正则表达式匹配中文

#!coding:utf-8  

# 测试匹配中文信息  

def testrechinese( ):  

    source  =   u"        数据结构模版----单链表simplelinklist[带头结点&&面向对象设计思想](c语言实现)"  

    temp    =   source.decode('utf8')  

    print "同时匹配中文英文"  

    print "--------------------------"  

    xx      =   u"([\w\w\u4e00-\u9fff]+)"  

    pattern =   re.compile(xx)  

    results =   pattern.findall(temp)  

    for result in results:  

        print result  

    print   

    print "只匹配中文"  

    xx      =   u"([\u4e00-\u9fff]+)"  

if __name__ == "__main__" :  

    # 测试正则表达式  

    reload(sys)  

    sys.setdefaultencoding("utf-8")  

    testrechinese( )  

   上面的代码我们已经看的很明白了,这样我们就很清楚了,那么有没有其他方法呢,其实python中也有一个其他方法可以解决中文匹配的问题了,但是这个写法其实是绕过了编码问题,也就是说是一种有点投机取巧的方法,但是这个方法却很实用。

转载:http://blog.csdn.net/gatieme/article/details/43235791