博音听力:借2025北京国际听力学大会东风 开启国产助听器AI赋能新征程
博音听力:借2025北京国际听力学大会东风 开启国产助听器AI赋能新征程
博音听力:借2025北京国际听力学大会东风 开启国产助听器AI赋能新征程“月薪5万被裁员”“十年的青春换来裁员大礼包”……不同场景、不同人物,却有着(yǒuzhe)同样的遭遇,在短视频中说着相似的台词。这不是企业(qǐyè)裁员,而是起号(qǐhào)卖课套路。
南方都市报、南都大数据研究院监测发现,近期社交平台上出(chū)现众多账号,自称被“互联网(hùliánwǎng)大厂”裁员,但其晒出的照片系盗用他人照片或者利用AI生图而成,一通“诉苦”实质目的是向网友推销编程(biānchéng)课程。
同时专家提醒,网民(wǎngmín)在(zài)社交平台分享内容时要注意做好个人信息保护,增强著作权保护意识,在图片视频中添加水印等印记。一旦发现侵权行为,就(jiù)应及时积极维权。
平台突现大批“被裁员”博主(bózhǔ)
记者近日发现,多个社交平台上出现一批“被(bèi)裁员”博主,这些账号发布的(de)短视频、图文内容均以“个人自拍+工卡照+银行(yínháng)入账短信截图”拼接图作为封面,声称自己在某“互联网大厂”工作N年却被裁员,如今要将技术(jìshù)经验传下去,希望带几个徒弟学习编程技术。
社交平台上(shàng)出现一批“被裁员”博主。
记者按照其中一个账号的(de)指引,以(yǐ)学习编程技术的名义添加对方微信。对方发来一个直播间链接,声称将提供直播教学。但经比对,其所谓的“直播教学”只是播放某机构录制的课程视频,出镜人物与社交(shèjiāo)账号所发照片显然不相符(xiāngfú)。记者对此提出质疑,对方保持沉默,未再(zài)回应。
事实上,这些(zhèxiē)账号所发的自拍照多为(duōwèi)盗用社交平台上他人照片,或利用AI生图技术虚构工卡。记者留意到,部分被盗图的博主已主动发帖提醒网友切勿上当,也有网友质疑(zhìyí)相关图片存在涂抹感过(gǎnguò)浓、物体比例不合理等瑕疵,可能系AI生成。
部分被盗图的博主发帖提醒网友切勿上当(shàngdàng)。
网络社交平台(píngtái)兴起以来,盗用他人照片恶意传播或牟利的事件可谓屡见不鲜。早在2018年,就有媒体曝光某电商平台多家店铺兜售生活照片、视频(shìpín)素材,供买家打造人设、广告宣传等(děng)。这些素材实际上来自社交平台用户公开发表的图片,用户本人对此毫不知情。南都(dōu)大数据研究院也曾报道有商家兜售社交账号“考古(kǎogǔ)”服务,批量(pīliàng)爬取他人社交账号过往照片。
近期记者实测发现(fāxiàn),尽管部分关键词已被屏蔽,但(dàn)变换搜索关键词后,仍可在电商平台上找到部分商家售卖此类生活照素材。
另一方面,AI生图技术的普及,更让此类起号(qǐhào)手段成本越发低廉。从通用大模型,再到专门的AI肖像(xiàoxiàng)生成服务,用户只(zhǐ)需上传一张清晰的生活照,即可要求(yāoqiú)AI生成指定肖像的图片。南都记者实测,无论指定场景的工作照,还是工卡证件照,AI都可一键生成。
AI可生成指定人物肖像的(de)工卡牌。
专家建议(zhuānjiājiànyì):及时维权举报
记者检索发现,近年多地法院审理(shěnlǐ)过此类(cǐlèi)盗用他人照片的案件。如2023年,北京互联网法院审理一起个人(gèrén)长期盗用他人朋友圈照片及文字(wénzì)、冒充他人的案件;今年5月,河南省新密市人民法院审理一起电商店铺擅自使用他人照片用于服装推广和(hé)销售的案件。多地法院以案说法,强调肖像权直接关系公民的人格尊严及社会评价,未经许可以营利为(wèi)目的使用他人肖像,应承担相应的民事责任。“网上能(néng)找到的图就能用”是常见的法律误区。
从治理角度来看(láikàn),各方应如何有效整治此类行为,保障网民的合法权益?多位专家接受(jiēshòu)媒体采访时提出过相关建议。
中央财经大学法学院教授朱晓峰指出,平台应(yīng)完善分级分类网络(wǎngluò)侵权信息举报处置举措,建立(jiànlì)快速通道,第一时间(shíjiān)受理、第一时间处置显性网络侵权以及事实清楚、举证充分的举报;建立“限时加私”机制,对时效性强、举证时间久,可能给(gěi)举报人造成较大负面影响的侵权信息,先行采取措施,及时阻断相关信息分享传播,为(wèi)举报人完成举证提供时间窗口。
专家还指出,网民发布内容时也要做好个人信息保护,如尽量(jǐnliàng)只发布低分辨率照片,避免他人盗用;同时增强著作权保护意识,在图片视频中添加水印等印记。一旦发现侵权行为(qīnquánxíngwéi),就应及时积极维权(wéiquán),与侵权者交涉要求删除有关内容,或向(xiàng)平台举报。
来源(láiyuán) | 南方都市报

“月薪5万被裁员”“十年的青春换来裁员大礼包”……不同场景、不同人物,却有着(yǒuzhe)同样的遭遇,在短视频中说着相似的台词。这不是企业(qǐyè)裁员,而是起号(qǐhào)卖课套路。
南方都市报、南都大数据研究院监测发现,近期社交平台上出(chū)现众多账号,自称被“互联网(hùliánwǎng)大厂”裁员,但其晒出的照片系盗用他人照片或者利用AI生图而成,一通“诉苦”实质目的是向网友推销编程(biānchéng)课程。
同时专家提醒,网民(wǎngmín)在(zài)社交平台分享内容时要注意做好个人信息保护,增强著作权保护意识,在图片视频中添加水印等印记。一旦发现侵权行为,就(jiù)应及时积极维权。
平台突现大批“被裁员”博主(bózhǔ)
记者近日发现,多个社交平台上出现一批“被(bèi)裁员”博主,这些账号发布的(de)短视频、图文内容均以“个人自拍+工卡照+银行(yínháng)入账短信截图”拼接图作为封面,声称自己在某“互联网大厂”工作N年却被裁员,如今要将技术(jìshù)经验传下去,希望带几个徒弟学习编程技术。

社交平台上(shàng)出现一批“被裁员”博主。
记者按照其中一个账号的(de)指引,以(yǐ)学习编程技术的名义添加对方微信。对方发来一个直播间链接,声称将提供直播教学。但经比对,其所谓的“直播教学”只是播放某机构录制的课程视频,出镜人物与社交(shèjiāo)账号所发照片显然不相符(xiāngfú)。记者对此提出质疑,对方保持沉默,未再(zài)回应。
事实上,这些(zhèxiē)账号所发的自拍照多为(duōwèi)盗用社交平台上他人照片,或利用AI生图技术虚构工卡。记者留意到,部分被盗图的博主已主动发帖提醒网友切勿上当,也有网友质疑(zhìyí)相关图片存在涂抹感过(gǎnguò)浓、物体比例不合理等瑕疵,可能系AI生成。

部分被盗图的博主发帖提醒网友切勿上当(shàngdàng)。
网络社交平台(píngtái)兴起以来,盗用他人照片恶意传播或牟利的事件可谓屡见不鲜。早在2018年,就有媒体曝光某电商平台多家店铺兜售生活照片、视频(shìpín)素材,供买家打造人设、广告宣传等(děng)。这些素材实际上来自社交平台用户公开发表的图片,用户本人对此毫不知情。南都(dōu)大数据研究院也曾报道有商家兜售社交账号“考古(kǎogǔ)”服务,批量(pīliàng)爬取他人社交账号过往照片。
近期记者实测发现(fāxiàn),尽管部分关键词已被屏蔽,但(dàn)变换搜索关键词后,仍可在电商平台上找到部分商家售卖此类生活照素材。
另一方面,AI生图技术的普及,更让此类起号(qǐhào)手段成本越发低廉。从通用大模型,再到专门的AI肖像(xiàoxiàng)生成服务,用户只(zhǐ)需上传一张清晰的生活照,即可要求(yāoqiú)AI生成指定肖像的图片。南都记者实测,无论指定场景的工作照,还是工卡证件照,AI都可一键生成。

AI可生成指定人物肖像的(de)工卡牌。
专家建议(zhuānjiājiànyì):及时维权举报
记者检索发现,近年多地法院审理(shěnlǐ)过此类(cǐlèi)盗用他人照片的案件。如2023年,北京互联网法院审理一起个人(gèrén)长期盗用他人朋友圈照片及文字(wénzì)、冒充他人的案件;今年5月,河南省新密市人民法院审理一起电商店铺擅自使用他人照片用于服装推广和(hé)销售的案件。多地法院以案说法,强调肖像权直接关系公民的人格尊严及社会评价,未经许可以营利为(wèi)目的使用他人肖像,应承担相应的民事责任。“网上能(néng)找到的图就能用”是常见的法律误区。
从治理角度来看(láikàn),各方应如何有效整治此类行为,保障网民的合法权益?多位专家接受(jiēshòu)媒体采访时提出过相关建议。
中央财经大学法学院教授朱晓峰指出,平台应(yīng)完善分级分类网络(wǎngluò)侵权信息举报处置举措,建立(jiànlì)快速通道,第一时间(shíjiān)受理、第一时间处置显性网络侵权以及事实清楚、举证充分的举报;建立“限时加私”机制,对时效性强、举证时间久,可能给(gěi)举报人造成较大负面影响的侵权信息,先行采取措施,及时阻断相关信息分享传播,为(wèi)举报人完成举证提供时间窗口。
专家还指出,网民发布内容时也要做好个人信息保护,如尽量(jǐnliàng)只发布低分辨率照片,避免他人盗用;同时增强著作权保护意识,在图片视频中添加水印等印记。一旦发现侵权行为(qīnquánxíngwéi),就应及时积极维权(wéiquán),与侵权者交涉要求删除有关内容,或向(xiàng)平台举报。
来源(láiyuán) | 南方都市报

相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎