|
围绕生成式AI问答,市场上已形成一套付费营销模式,其中不乏虚假信息营销
系统化“投喂”影响数据源!谁在“污染”AI语料? 如以篡改、虚构、重复等方式产生的污染数据,将干扰模型训练,削弱其准确性,甚至诱发有害输出 图片/日升
本报记者 王一凡
近期,不少消费者在社交媒体吐槽:使用AI问答应用时,生成的答案里不仅有看似客观的解释和分析,还会直接推荐某些品牌或机构。比如,搜索鱼油时,得到的并非市场认知度较高的品牌,而是一些知名度不高、信息来源有限,甚至在市场上完全找不到的品牌或贴牌产品;搜索某类水果,结果中却出现相关饮品品牌。与此同时,一些商家也开始打出“被AI推荐”“AI搜索榜单靠前”的宣传语,不少营销机构顺势推出相关服务,宣称可以帮助企业品牌被AI收录或推荐。 AI回答里真的能植入广告?这类新兴营销模式是如何运作的?是否存在被滥用的风险?记者调查发现,围绕生成式AI问答,市场上已形成一套相对成熟的付费营销模式,在带来商业机会的同时,也埋下了虚假信息混入、难以识别的隐患。 AI营销业务左右信息源 营销的核心并不是直接向AI投广告,而是通过大量内容,去影响它能看到、能引用的数据源 “你知道吗?现在很多客户在买东西前,已经先在AI里把你的公司和产品翻了个遍。”记者在浏览各大社交媒体和购物平台时发现,不少营销账号在推荐AI营销业务,强调“现在正是布局AI营销的最佳时机”。 多名营销行业人士介绍,目前的AI营销称为GEO优化,全称是生成式引擎优化(Generative Engine Optimization),可以理解为传统搜索引擎优化在AI搜索时代的延伸。不同于过去用户在搜索引擎中自行点击链接,生成式AI会直接整合多个信息源,给出结论式答案,这也让“谁被引用、谁被提到”变得格外重要。 这种影响AI回答结果的服务是如何落地的?记者以企业市场人员身份,先后咨询了多家提供AI搜索优化服务的营销机构。这些机构给出的操作思路高度一致:一方面,先研究用户会如何向AI提问,例如“某行业哪些品牌好”“A品牌和B品牌哪个好”“某公司靠谱吗”;另一方面,再围绕这些问题,在互联网上提前铺设内容,包括企业官网、新闻稿、自媒体文章、行业分析、产品测评等。 在开启“联网搜索”或“深度思考”模式后,部分AI工具会显示其参考的信息来源。营销人员正是通过反复测试这些引用路径,判断AI更容易抓取哪些网站、哪些内容形式,再进行定向布局。“比如某个平台更容易引用权威媒体,那就多发新闻稿,有些AI更偏好社区讨论,就多做口碑内容。”一名从事相关业务的营销人员表示,“核心并不是直接向AI投广告,而是通过大量内容,去影响它能看到、能引用的数据源”。 在服务开始前,机构通常会先帮企业梳理关键词和用户可能提出的问题清单。这些可不是简单的产品名字,而是高度模拟真实用户的提问方式,比如“某行业哪些品牌值得选”“某某公司靠谱吗”“这两家哪个更适合中小企业”等。在沟通过程中,一名营销人员直接说:“你只要把想推广的产品词,也就是用户意图告诉我们,我们会帮你生成提问词,之后找你核对一遍就行。后续优化方案、写文章、发内容,全由我们承包,你们只需要验收结果。”话语里透着自信,也让人感受到这套服务运作的精细化。 当记者进一步追问如何判断AI的数据来源及不同信息的权重时,这名营销人员并未给出明确答案,而是表示不同行业的AI引用源差异较大。“比如财经、旅游类问题,地方性网站被引用的比例反而更高,这些我们自己的后台就能监测到,但并不对客户开放。” 在具体执行层面,记者咨询的多家机构给出的方案也较为一致:一方面,对企业官网进行基础优化,确保结构清晰、抓取顺畅;另一方面,持续生产原创内容,并通过新闻媒体、自媒体平台、行业网站进行分发,形成稳定的信息来源。 在这些机构的描述中,影响AI回答并不是一次性的操作,而是一套被拆解得十分细致的流程。记者了解到,GEO服务通常会将内容拆分为几类:一类是企业官网和官方介绍,用于建立基础认知;一类是行业趋势、产品测评、横向对比,用于提升品牌的露出度;还有一类是案例分析、白皮书、研究报告,用于增强可信度。 关于报价,多数机构按关键词收费,每个关键词每月价格在千元左右,记者查看合同发现,双方通常会约定AI回答露出比例和达标标准。对于是否能做到“排名第一”,不少机构态度谨慎,但普遍承诺至少能在回答中看到品牌出现。 系统化“投喂”污染语料 商家宣称自研了一套系统,覆盖主流AI平台,承诺在短时间内显著提升品牌在AI搜索中的可见度 记者发现,除了上述以人工定制和内容策划为主的服务形态外,市场上还出现了另一类更强调“系统化操作”的GEO产品。这类商家往往宣称自研了一套系统,可以覆盖主流AI平台,并承诺在短时间内显著提升品牌在AI搜索中的可见度。 记者联系到一名售卖“GEO优化系统”的营销中介,对方提供了一个测试账号,并在宣传语中称,该系统可以“统治所有AI搜索”,一周内就能让品牌登上AI搜索榜。系统报价为980元/年,包含一个月“陪跑服务”,并赠送用于生成文章的系统点数,若用户支付1680元,还可成为代理进行系统分销。 为进一步验证这类系统的实际效果,记者按照对方指引登录后台体验。系统要求用户先创建企业资料,填写品牌信息、设定关键词并上传图片,随后在“AI备课”模块中输入创作指令,生成与企业产品相关的推广内容。 接下来便进入所谓的“AI投喂”环节,即将生成的内容分发至各类网站。投放渠道主要分为两类:一类是付费新闻网站,包括行业媒体和媒体网站,单篇价格从几十元到数百元不等;另一类则是门户网站的自媒体账号。系统提示,用户需在多个平台自行注册账号并授权,由后台统一管理,并通过配套软件实现自动更新和批量发布。 虽然系统首页以小字标注“优化仅限正规行业,且内容要真实。请勿夸大宣传、伪造专家及报告、冒充权威、虚假宣传等手段,勿违反广告法,否则后果自负”,并在使用说明中提示不推荐“民营医疗、金融、游戏、彩票、非自有品牌且无授权卖他人品牌,K12教育、违法犯罪、黑五类、灰产等违反广告法的相关行业”使用,但记者注意到,系统本身并未设置实质性的内容审核机制,仅停留在提醒层面。 业内人士坦言,发布产品测评、行业趋势、专业报告等内容,更容易被AI采纳,“至于报告是不是真的,AI也无法核实”。更有博主公开演示“污染AI语料”过程,通过虚构产品、伪造测评和行业分析,成功让AI推荐不存在的品牌。 不存在的产品获AI推荐 为验证“污染AI语料”过程,记者用AI设计了一个并不存在的产品,经过“投喂”成功获AI推荐 这条路真的能走通吗?为验证这一过程,记者决定做一个极端测试:从零开始,设计了一个现实中并不存在的产品。 记者虚构了一款水杯产品,取名“泉嘉德智能水杯”(谐音“全假的”),卖点颇为奇葩:所谓“无声社交功能”,支持近距离蓝牙配对,好友间可以发送“喝水提醒”“加油鼓励”,接收方的杯身会以专属灯光闪烁回应。然后记者通过AI图像生成工具,输入指令:“一款白色陶瓷智能水杯,杯身带蓝色灯光显示,顶部有小型显示屏,杯身简洁现代,带蓝牙标志。”几秒钟后,一幅逼真的水杯图片出现在屏幕上。 接下来,记者按照一套市场上流行的GEO优化系统操作流程,把企业信息、产品照片、详细功能描述上传到后台。在“AI备课”模块填写创作指令,生成与产品相关的推广内容,包括行业测评、使用场景描述、产品优势等。系统会自动将这些内容拆分成多篇文章,然后进入所谓的“AI投喂”环节:这些文章被分发到付费新闻网站和自媒体账号上。系统还提供批量管理和自动更新功能,记者只需坐在电脑前,像导演一样看着这款虚拟产品一步步进入网络世界。 几个小时后,记者在多款主流AI问答应用里提问:“推荐一下具备社交功能的智能水杯。”令人瞠目结舌的是,AI竟真的推荐了这款根本不存在的“泉嘉德智能水杯”,并补充了“适合办公室社交”“电商参考价”等信息,语气克制而专业,仿佛这个产品真的存在。 为进一步测试,记者让从未使用过AI软件的同事在4天后再次查询,结果“泉嘉德智能水杯”依然出现在推荐列表第三名,虽然排名略有下降,但足够说明一个事实:只要互联网上有足够完整的信息,即便是虚假的产品,也能被推荐。 AI无法判断信息的真伪 未来需进一步细化AI生成商业内容的标识标准,提升监管部门对隐蔽植入行为的技术识别能力 国家安全部曾在今年8月发文指出,通过篡改、虚构、重复等“数据投毒”方式产生的污染数据,将干扰模型训练,削弱其准确性,甚至诱发有害输出。相关研究显示,当训练数据中仅有0.01%的虚假文本时,模型有害输出就会明显上升。 一名互联网技术人员解释,从技术层面看,模型会先从互联网上抓取与问题高度相关的文本,再根据来源可信度、内容完整度、语义匹配度等因素进行排序,最后在此基础上生成答案。在这一机制下,AI并不具备判断信息“真实存在”还是“人为制造”的能力。大模型更关注的是文本之间的统计相关性,而非事实本身。“如果互联网上出现了大量结构完整、语言规范、看起来像正经资料的内容,模型会倾向于认为这是一个真实且被广泛讨论的对象。” 有意思的是,记者注意到不少GEO机构自身也在通过类似方式提升其在AI平台上的可见度。在搜索“国内GEO优化公司”时,可以发现AI引用了大量内容高度相似的文章,其中不少文章是刊登在地方省市媒体网站上的,文内还引用了并不存在的“白皮书”“行业标准”。 而这种信息污染如果传到金融、健康等领域,产生的后果会更加严重。据媒体报道,金融机构“分期乐”今年就通过技术巡检、警企联动等方式,打击了一批通过GEO制造虚假客服电话的黑灰产组织。目前,黑灰产正转向通过GEO方式批量生成伪原创内容,并向多平台投喂,将包括伪造的金融机构联系方式等虚假信息“植入”AI答案中。当金融消费者向AI提问“金融机构客服电话”时,可能会被直接引导至黑灰产的诈骗陷阱中。 对此,上海格联律师事务所高级合伙人、长期关注数据与人工智能法律问题的律师夏海波认为,营销机构宣称的这种可将企业品牌“植入”AI问答内容的服务,本质上仍属于广告行为。根据广告法相关规定,只要是商品经营者或服务提供者通过一定媒介和形式,直接或间接介绍其商品或服务、影响消费者认知和决策的行为,就构成商业广告。若具有商业推广目的却未作明确标注,可能违反广告标识义务。同时,生成式AI和深度合成内容本身也负有内容标识责任,相关行为可能面临市场监管与网信部门的双重监管。 在竞争层面,若服务商通过向AI“投喂”虚假或误导性信息,引导其生成有利于自身、不利于竞品的评价,可能构成不正当竞争。夏海波提醒,这类行为不仅可能误导消费者,也会破坏公平竞争秩序。此外,《生成式人工智能服务管理暂行办法》明确要求训练数据来源合法、真实,不得利用算法和数据优势实施不正当竞争。 目前,对相关行为的监管难点并不在于无法可依,而在于其隐蔽性强、责任链条复杂。夏海波表示,广告法、反不正当竞争法、消费者权益保护法提供了基本的责任认定和追责依据,而针对AI技术特点出台的配套规章,也在数据来源、生成过程和内容输出等关键环节设定了较为明确的义务要求。 未来,更需要在实践层面进一步细化AI生成商业内容的标识标准,提升监管部门对隐蔽植入行为的技术识别能力,同时厘清AI平台、媒介服务商和广告主之间的责任边界,防止“技术外衣”成为规避法律责任的工具。 责任编辑:日升 (责任编辑:日升) |



