B站PC下拉★64xl.com顶级下拉平台,搜索框里的推荐怎么删除

2024-08-22
来源:网络整理

    

下拉神器是一款专业的下拉词平台,提供各种下拉功能:百度下拉丶360搜索下拉丶必应搜索下拉丶哔哩哔哩下拉丶抖音下拉等等,里面还有批量做词教程技术,可以一次性做10-50个词,省心高效!批量做词,批量出词,可以实现霸屏效果   

有的客户想删除下拉,但是百度不受理,就可以使用批量做词霸屏技术,实现把那些负面信息顶下去,顶掉的效果=删除效果!欢迎您前来使用!新手不懂使用,请多看2遍视频教程哦!下拉神器100%有效果的!   

给大家看一个下拉神器介绍的视频,看完后,点击下面的按钮进入”下拉神器“     

欢迎使用下拉神器,下拉行业老品牌,如果下拉神器都不好使,整个行业其他平台一样不好使,但是大家一定要多学习多看教程,先学会做词出词的技巧!

    


   


   


下一篇文章内容预览:


   

前言

在第一篇文章“推荐算法概述”中,我们说过,一个真正的推荐系统往往是多种推荐算法策略的组合,本文将介绍推荐系统中最古老的算法:基于内容的推荐算法(-CB)。

CB是第一个被使用的推荐算法,其思路非常简单:根据用户过去喜欢的项目(本文统称为项目),推荐给用户与他过去喜欢的项目相似的项目。关键在于项目相似度的度量,这是算法的核心。CB最初主要用于信息检索系统,因此CB中可以采用多种信息检索和信息过滤的方法。

举个简单的例子:在   购物的人应该知道,每当你进入任何商品页面时,都会有一个“猜你喜欢什么”的栏目,而这个时候,他会根据你经常购买的商品向你推荐类似的商品。比如我:我经常买网书,所以会推荐类似的书给我(当然,这只是个例子, 的推荐算法肯定不会那么单一,但可以肯定的是,他肯定会用最基础的CB推荐算法)。

CB的过程一般包括以下三个步骤:

下面是前三个步骤的示例。随着今日头条的崛起,基于内容的文字推荐开始流行起来。在此应用程序中,项目就是文章。

在第一步中搜索次数多就会生成推荐词吗,我们首先从文章内容中提取表示它们的属性。一种常见的方法是使用文章中出现的单词来表示文章搜索次数多就会生成推荐词吗,在信息检索中B站PC下拉★64xl.com顶级下拉平台,搜索框里的推荐怎么删除,通常使用TF-IDF来计算每个单词的权重。通过这种方法,可以使用具体向量来表示摘要文章。最简单的方法是将与用户喜欢的所有文章对应的向量的平均值作为用户的特征向量。例如,如果我经常在今日头条中阅读与科技相关的文章,那么今日头条的算法可能会将“互联网”、“大数据”、“机器学习”、“数据挖掘”等关键词的权重设置为更大的权重。这样,当我登录今日头条客户端时,他获取到我的用户后,使用CB算法计算出我的个人和文章项的相似度(相似度可以通过余弦相似度来衡量),然后将相似度最大的前N篇文章作为推荐结果返回到我的推荐列表中。

让我们仔细看看上面的三个步骤:

项目指示

实际应用程序中的项通常具有描述它们的属性。这些属性一般可以分为两种类型:结构化()属性和非结构化()属性。所谓结构化属性,是指属性的含义比较清晰,其价值被限制在一定的范围内;非结构化属性往往具有不明确的含义和无限的值,使其难以直接使用。例如,在交友网站上,一个项目就是一个人,一个项目会具有结构化的属性,如身高、教育程度、原籍地等,以及非结构化的属性(如项目本身写的约会宣言、博客内容等)。对于结构化数据,我们自然可以尽快使用;但是对于非结构化数据(例如文章),我们通常必须先将其转换为结构化数据,然后才能在模型中使用它。在真实场景中遇到的最常见的非结构化数据可能是文章(例如,在个性化阅读中)。让我们仔细看看如何构建一篇非结构化的文章。

如何表示一篇文章在信息检索中已经研究了很多年,下面描述的表示技术的来源也是信息检索,它的名字是向量空间模型(VSM)。

我们想要表示的所有冠词的集合是 D={d1,d2,...,dn},而出现在所有冠词中的所有单词的集合(也称为字典)(对于中文冠词,必须先分割所有冠词)是 T={t1,t2,...,tn}。也就是说,我们有 N 篇文章要处理,而这些文章包含 N 个不同的词。我们最终会用一个向量来表示一篇文章,例如,文章j表示为dj={w1j,w2j,...,wnj},其中wij表示文章j中第i个单词ti的权重,值越高,越重要。DJ中其他向量的解释是类似的。因此,为了表示第 j 篇文章,现在的关键是如何计算 dj 的每个分量的值。例如,如果文章 j 中出现单词 ti,我们可以选择 wij 作为 1;如果文章 j 中未显示 TI,则选择 0。我们也可以选择 wij 作为单词 ti 在文章 j () 中出现的次数。然而,最常用的计算方法是信息检索中常用的词频率-逆文档频率(术语-(TF-idf)。文章 j 中字典中第 k 个单词对应的 tf-idf:

其中 TF(tk,dj) 是第 k 个单词在文章 j 中出现的次数,而 nk 是所有文章中包含第 k 个单词的文章数量。

文章 j 中最后第 k 个单词的权重由以下公式获得:

做归一化的好处是,不同文章之间的表示向量被归一化为一个量级,方便后续步骤。

特征学习

假设用户 u 对某些项目给出了他的偏好判断,喜欢其中的一些而不喜欢其他项目。然后,这一步要做的就是通过这些过去的偏好为用户生成一个模型。通过这个模型,我们可以根据这个模型来判断用户你是否会喜欢一个新项目。所以,我们要解决的是一个典型的监督分类问题,理论上机器学习中的分类算法可以在这里复制。

搜索次数多就会生成推荐词吗_词条搜索量_搜索词条生成器

下面我们简单介绍一下CB中常用的一些学习算法:

最近邻法(简称KNN)。

对于一个新项目,最近邻方法首先找到用户 u 已经判断过且与新项目最相似的 k 个项目,然后根据用户 u 对 k 个项目的喜欢程度来确定用户 u 对新项目的喜欢程度。这类似于 CF 中的 item-kNN,不同之处在于项目相似度是根据项目的属性向量计算的,而在 CF 中,它是根据所有用户对项目的评分来计算的。

对于这种方法,关键可能是如何从项目的属性向量中计算项目之间的相似度。对于结构化数据,相似性计算使用欧几里得距离;另一方面,如果使用向量空间模型 (VSM) 来表示项目,则可以使用相似性计算。

算法

该算法是一种众所周知的算法,用于处理信息检索中的相关反馈( )。例如,如果你在搜索引擎中搜索“苹果”,当你第一次搜索这个词时,搜索引擎并不知道你是想吃的水果还是你不能吃的苹果,所以它经常会试图给你呈现各种结果。当您看到这些结果时,您将单击您认为相关的结果(这称为相关反馈)。然后,如果你翻页看到第二页的结果,搜索引擎可以修改你的查询向量的值,并重新计算页面的分数,使结果与你刚刚点击的结果相似。例如,当你第一次搜索“”时,对应的查询向量是{“”: 1}。 而当你点击一些与Mac相关的结果时,搜索引擎会把你的查询向量修改为{“”: 1,“Mac”: 0.8,“”: 0.7},通过这个新的查询向量,搜索引擎可以更清楚地知道你在寻找的是一个不可食用的苹果。该算法的目的是修改查询的向量:{“” : 1} –> {“” : 1, “Mac” : 0.8, “” : 0.7}。

在 CB 中,我们同样可以使用算法来获取用户的 u

其中 wj 表示项 j 的属性,Ir 和 Inr 分别表示用户喜欢和不喜欢的项的集合。β 和 γ 是正反馈和负反馈的权重,而它们的值是由系统给出的。

在收购中

,对于给定的项目 J,我们可以使用

表示用户对 J 的偏好。

该算法的一个优点是

词条搜索量_搜索次数多就会生成推荐词吗_搜索词条生成器

它可以根据用户反馈实时更新,而且它的更新非常昂贵。

如本节开头所述,本节解决一个典型的监督分类问题。所以这里可以用到各种有效的分类机器学习算法,以下是几种常用的分类算法:

决策树算法 (DT)。

当项具有较少的属性并且是结构化的时,决策树通常是一个不错的选择。在这种情况下,决策树可以产生简单、直观且易于理解的结果。我们可以向用户展示决策树的决策过程,并告诉他为什么推荐这些项目。但是,如果项目具有大量属性,并且所有属性都派生自非结构化数据(例如,项目是一篇文章),则决策树可能无法很好地工作。

线性分类算法 (LC)。

对于我们在这里遇到的第二类问题,线性分类器(LC)试图在高维空间中找到一个平面,以便该平面尽可能与两种类型的点分开。也就是说,一种类型的点尽可能远在平面的一侧,而另一种类型的点尽可能远位于平面的另一侧。

我们以学习用户 u 的分类模型为例。

表示项目 j 的属性向量,然后 LC 尝试在

在太空中找到一架飞机

,使这个平面尽可能地将用户喜欢和不喜欢的项目分开。 其中

这就是我们要学习的参数。最常用的学习方式

该方法为梯度下降法,更新过程如下:

搜索次数多就会生成推荐词吗_搜索词条生成器_词条搜索量

上角标记t代表第t次迭代,yuj表示用户对j项的评分(例如,喜欢则值为1,不喜欢则值为-1)。 η是学习率,它控制着系统给出的每次迭代有多少变化。

和算法一样,更新上述公式的好处是可以以较小的成本实时更新,实时调整用户u对应的cu。

说到这里,很多童鞋可能会想起一些大家熟知的线性分类器:还有SVM等,肯定能胜任这里的分类任务。SVM 可以很好地用于对文本进行分类。

If item 属性

如果每个组件都是 0/1(例如,项目是物品,

1 的第 k 个分量表示字典中的第 k 个单词在第 j 项中,0 表示第 k 个单词不在 j 项中)。

算法 (NB)。

NB算法就像它的缩写一样,太棒了!NB 通常用于文本分类,它假设在文章的给定类别之后,单个单词出现的概率是相互独立的。它的假设是不可靠的,但它的结果往往出乎意料地好。此外,NB的实现相对简单,因此在许多分类问题中,它往往是首先尝试的算法。现在我们的问题有两类:用户喜欢的项目和他不喜欢的项目。在为项目指定类别后,其每个属性的概率都是相互独立的。我们可以使用用户的历史偏好数据来训练 NB,然后使用训练好的 NB 来对给定的项目进行分类。

推荐列表的生成

如果我们在上一步中使用了分类模型(如 DT、LC 和 NB),那么我们只需要返回模型预测的用户最有可能感兴趣的 n 个项目作为推荐。如果使用的方法(例如算法)直接用于学习用户属性,那么我们只需要返回与用户属性最相关的 n 个项目作为推荐。用户属性和项目属性之间的相关性可以使用等相似性度量来获得。

基于内容的推荐的优点和缺点

我们来谈谈基于内容的推荐算法的优缺点。

CB的优点:

CB的缺点:

CB应该被看作是第一代个性化应用中最流行的推荐算法。然而,由于其自身存在难以解决的缺点(如上面介绍的第 1 点),且其准确性在大多数情况下并不是最好的,因此目前的推荐系统大多主要基于其他算法(如 CF),辅以 CB 来解决某些情况下(如解决新项问题)主算法的不准确性。但是,CB的作用是不可否认的,只要在具体应用中有可用的属性,那么CB的影子在系统中基本上就可以看到。有很多方法可以将 CB 与其他推荐算法结合起来(我将在很长一段时间内写一篇关于它们的博客文章),最常见的一种可能是使用 CB 来过滤其他算法的候选集,并删除一些不合适的候选算法(例如,不要向儿童推荐成人书籍)。

分享