欢迎来到飞鸟慕鱼博客,开始您的技术之旅!
当前位置: 首页知识笔记正文

基于文本的信息检索模型,数据挖掘与信息安全

终极管理员 知识笔记 57阅读

文章目录 实验内容相关概念实验步骤分词预处理构建倒排索引表计算query和各个文档的相似度queries预处理及检索函数对输入的文本进行词法分析和标准化处理检索函数 调试结果

实验内容 在Experiment1的基础上实现最基本的Ranked retrieval model Inputa query (like Ron Weasley birthday)Output: Return the top K (e.g., K 100) relevant tweets. Use SMART notation: lnc.ltn Document: logarithmic tf (l as first character), no idf and cosine normalizationQuery: logarithmic tf (l in leftmost column), idf (t in second column), no normalization 改进Inverted index 在Dictionary中存储每个term的DF在posting list中存储term在每个doc中的TF with pairs (docID, tf) 相关概念 信息检索与数据挖掘 | 五文档评分、词项权重计算及向量空间模型词项频率term frequenceyt在文档中的出现次数。文档集频率collection frequency词项在文档集中出现的次数。文档频率document frequency出现t的所有文档的数目。逆文档频率
t f − i d f t , d tf-idf_{t,d} tf−idft,d​计算

相似度计算
查询权重机制
实验步骤 分词预处理

将输入的推特文档转换为小写这里统一处理使得后续查询不区分大小写。

根据特定标记在推特文档中查找并确定关键部分信息的位置索引并提取出推特文档中的tweetid和tweet内容。

对提取出的文本内容进行分词处理并将单词转换为其单数形式。

对分词后的词列表进行词形还原主要针对动词的还原操作。同时筛去[“text”, “tweetid”]

将筛选出的有效词添加到最终结果列表中并返回。

#分词预处理def tokenize_tweet(document):    # 统一处理使查询不区分大小写    document  document.lower()    # 根据特定标记在推特文档中查找并确定关键部分信息的位置索引    # 这里的减1减3是对引号逗号切入与否的调整    a  document.index(tweetid) - 1    b  document.index(errorcode) - 1    c  document.index(text) - 1    d  document.index(timestr) - 3    # 将推特文档中的tweetid和text内容主要信息提取出来    document  document[a:b]  document[c:d]    # 分词处理并将单词转换为其单数形式    terms  TextBlob(document).words.singularize()    # 将分词后的词列表进行词形还原并筛选出不属于无用词的有效词    result  []    for word in terms:        # 将当前词转换为Word对象        expected_str  Word(word)        # 动词的还原操作        expected_str  expected_str.lemmatize(v)        if expected_str not in uselessTerm:            # 筛去[text, tweetid]添加到result中            result.append(expected_str)    return result
构建倒排索引表 存储term在每个doc中的TF with pairs (docID, tf)。
首先明确在该过程计算文档词项的对应权重采用lnc规则即 logarithmic tf (l as first character), no idf and cosine normalization。具体流程如下 读取内容。文件中每行都代表一条推特。将每一行推特文本分解为单词词条化并存储在一个列表line中利用一个全局变量N记录读取的推特文档数量。从line中提取tweetid并从line中删除。创建一个空字典tf用于统计每个词在当前文档中的出现次数。遍历line中的每个词通过判断词是否已经在tf字典的键中存在来更新词的出现次数。对tf字典中的每个词项频率进行logarithmic tf的计算即将出现次数加1并取对数。对应logarithmic tf (l as first character)归一化对应cosine normalization遍历tf字典的键即词项得到归一化因子。最后代码再次遍历tf字典的键并将每个词项的频率乘以归一化因子。得到最后的对应tf权重。将line转换为集合unique_terms并遍历其中的每个词。 如果该词已经在postings字典的键中存在则更新该词对应的字典项将tweetid和权重加入其中。如果该词不存在于postings字典的键中则创建该键并将tweetid和权重加入其中。 统计词频频率
# 统计词项频率记录每个词在当前文档中的出现次数tf  {} for word in line:     if word in tf.keys():         tf[word]  1     else:         tf[word]  1
1 l o g ( t f t , d ) 1log(tf_{t,d}) 1log(tft,d​)
 # logarithmic tf for word in tf.keys():     tf[word]  1  math.log(tf[word])
1 w 1 2 w 2 2 . . . w m 2 \frac{1}{\sqrt{{w_1}^2{w_2}^2...{w_m}^2}} w1​2w2​2...wm​2 ​1​
 # 归一化cosine normalization cosine  0 for word in tf.keys():     cosine  cosine  tf[word] * tf[word] cosine  1.0 / math.sqrt(cosine) for word in tf.keys():     tf[word]  tf[word] * cosine
计算query和各个文档的相似度 首先明确该过程分为两个步骤首先计算query词项的对应权重然后求相似度也即对应词项两个权重相乘并求和并降序排序。Query权重采用ltn规则即 logarithmic tf (l in leftmost column), idf (t in second column), no normalization。具体流程如下 遍历查询词列表query​对每个词进行词项频率统计将结果存储在tf中。遍历tf字典的键即查询词根据每个词在postings中的文档频率文档出现的次数计算文档频率df​。若一个词不在postings​中则将文档频率设置为全局变量 N表示总的文档数量。计算权重tf[word] (math.log(tf[word]) 1) * math.log(N / df)对应ltnlogarithmic tf, idf, no normalization。对于每个查询词检查它是否postings字典中存在。若存在则遍历该查询词的倒排索引文档编号及对应的词项权重根据每个文档的词项权重和查询词的tf-idf值计算相似度得分。存储得分并进行降序排序得到一个按照相似度排名的列表并将其返回作为结果。
def similarity(query):    global score_tid    tf  {}    # 统计词项频率    for word in query:        if word in tf:            tf[word]  1        else:            tf[word]  1    # 统计文档频率    for word in tf.keys():        if word in postings:            df  len(postings[word])        else:            df  N        # 对应ltn,logarithmic tf (l in leftmost column), idf (t in second column), no normalization        tf[word]  (math.log(tf[word])  1) * math.log(N / df)    # 计算相似度    for word in query:        if word in postings:            for tid in postings[word]:                if tid in score_tid.keys():                    score_tid[tid]  postings[word][tid] * tf[word]                else:                    score_tid[tid]  postings[word][tid] * tf[word]    # 按照得分相似度进行降序排序    similarity  sorted(score_tid.items(), keylambda x: x[1], reverseTrue)    return similarity
queries预处理及检索函数 对输入的文本进行词法分析和标准化处理
def token(doc):    # 将输入文本转换为小写字母以便统一处理。    doc  doc.lower()    # 将文本拆分为单个词项并尝试将词项转换为单数形式    terms  TextBlob(doc).words.singularize()    # 将分词后的词列表进行词形还原,返回结果列表result    result  []    for word in terms:        expected_str  Word(word)        expected_str  expected_str.lemmatize(v)        result.append(expected_str)    return result
检索函数
def Union(sets):    return reduce(set.union, [s for s in sets])def do_search():    query  token(input(please input search query >> ))    result  []    if query  []:        sys.exit()    # set()去除查询词列表中的重复项    unique_query  set(query)    # 生成一个包含每个查询词对应的tweet的id集合的列表并且利用Union()函数将这些集合取并集    relevant_tweetids  Union([set(postings[term].keys()) for term in unique_query])    print(一共有  str(len(relevant_tweetids))  条相关tweet)    if not relevant_tweetids:        print(No tweets matched any query terms for)        print(query)    else:        print(the top 100 tweets are:)        scores  similarity(query)        i  1        for (id, score) in scores:            if i < 100:  # 返回前n条查询到的信息                result.append(id)                print(str(score)  :   id)                i  i  1            else:                break        print(finished)
调试结果

最终代码

import sysfrom collections import defaultdictfrom textblob import TextBlobfrom textblob import Wordimport mathfrom functools import reduceuselessTerm  [text, tweetid]# 构建倒排索引表存储term在每个doc中的TF with pairs (docID, tf)postings  defaultdict(dict)# 文档数目NN  0# 最终权值score_tid  defaultdict(dict)#分词预处理def tokenize_tweet(document):    # 统一处理使查询不区分大小写    document  document.lower()    # 根据特定标记在推特文档中查找并确定关键部分信息的位置索引    # 这里的减1减3是对引号逗号切入与否的调整    a  document.index(tweetid) - 1    b  document.index(errorcode) - 1    c  document.index(text) - 1    d  document.index(timestr) - 3    # 将推特文档中的tweetid和text内容主要信息提取出来    document  document[a:b]  document[c:d]    # 分词处理并将单词转换为其单数形式    terms  TextBlob(document).words.singularize()    # 将分词后的词列表进行词形还原并筛选出不属于无用词的有效词    result  []    for word in terms:        # 将当前词转换为Word对象        expected_str  Word(word)        # 动词的还原操作        expected_str  expected_str.lemmatize(v)        if expected_str not in uselessTerm:            # 筛去[text, tweetid]添加到result中            result.append(expected_str)    return result# 构建倒排索引表存储term在每个doc中的TF with pairs (docID, tf)# lnclogarithmic tf, no idf and cosine normalizationdef get_postings():    global postings, N    content  open(rTweets.txt)    # 内容读取每一条推特作为一个元素存储在lines中    lines  content.readlines()    for line in lines:        N  1        # 预处理        line  tokenize_tweet(line)        # 提取处理后的词列表中的第一个元素即推特文档的tweetid        tweetid  line[0]        # 提取后删除不作为有效词        line.pop(0)        # 统计词项频率记录每个词在当前文档中的出现次数        tf  {}        for word in line:            if word in tf.keys():                tf[word]  1            else:                tf[word]  1        # logarithmic tf        for word in tf.keys():            tf[word]  1  math.log(tf[word])        # 归一化cosine normalization        cosine  0        for word in tf.keys():            cosine  cosine  tf[word] * tf[word]        cosine  1.0 / math.sqrt(cosine)        for word in tf.keys():            tf[word]  tf[word] * cosine        # 将处理后的词列表转换为集合获取其中的唯一词        unique_terms  set(line)        for key_word in unique_terms:            if key_word in postings.keys():                postings[key_word][tweetid]  tf[key_word]            else:                postings[key_word][tweetid]  tf[key_word]# query标准化处理def token(doc):    # 将输入文本转换为小写字母以便统一处理。    doc  doc.lower()    # 将文本拆分为单个词项并尝试将词项转换为单数形式    terms  TextBlob(doc).words.singularize()    # 将分词后的词列表进行词形还原,返回结果列表result    result  []    for word in terms:        expected_str  Word(word)        expected_str  expected_str.lemmatize(v)        result.append(expected_str)    return result# 计算query和各个文档的相似度def similarity(query):    global score_tid    tf  {}    # 统计词项频率    for word in query:        if word in tf:            tf[word]  1        else:            tf[word]  1    # 统计文档频率    for word in tf.keys():        if word in postings:            df  len(postings[word])        else:            df  N        # 对应ltn,logarithmic tf (l in leftmost column), idf (t in second column), no normalization        tf[word]  (math.log(tf[word])  1) * math.log(N / df)    # 计算相似度    for word in query:        if word in postings:            for tid in postings[word]:                if tid in score_tid.keys():                    score_tid[tid]  postings[word][tid] * tf[word]                else:                    score_tid[tid]  postings[word][tid] * tf[word]    # 按照得分相似度进行降序排序    similarity  sorted(score_tid.items(), keylambda x: x[1], reverseTrue)    return similaritydef Union(sets):    return reduce(set.union, [s for s in sets])def do_search():    query  token(input(please input search query >> ))    result  []    if query  []:        sys.exit()    # set()去除查询词列表中的重复项    unique_query  set(query)    # 生成一个包含每个查询词对应的tweet的id集合的列表并且利用Union()函数将这些集合取并集    relevant_tweetids  Union([set(postings[term].keys()) for term in unique_query])    print(一共有  str(len(relevant_tweetids))  条相关tweet)    if not relevant_tweetids:        print(No tweets matched any query terms for)        print(query)    else:        print(the top 100 tweets are:)        scores  similarity(query)        i  1        for (id, score) in scores:            if i < 100:  # 返回前n条查询到的信息                result.append(id)                print(str(score)  :   id)                i  i  1            else:                break        print(finished)def main():    get_postings()    while True:        do_search()if __name__  __main__:    main()

参考博客信息检索实验2- Ranked retrieval model

标签:
声明:无特别说明,转载请标明本文来源!