情報へのリプライ
uienwt正しい情報が含まれています と考えています
uienwt さんのリプライを引用しています
AI技術改變聲音、變臉後的影音,容易讓民眾掉入「眼前為真」的詐騙陷阱。碰到類似情形,應主動暫停通話,並透過其他管道聯繫對方以確認真實性,多一層警覺,謊言將不攻自破。

References

https://www.119.gov.taipei/News_Content.aspx?n=6C686F344A7BD003&sms=9D72E82EC16F3E64&s=752B97DEE1C49834
https://news.ltn.com.tw/news/society/paper/1585340

不只換臉連聲音也偷 防中國深偽詐騙入侵 - 社會 - 自由時報電子報

換臉易音 好友視訊竟是假現今科技時代,治安單位研判深偽(Deepfake)犯罪會越來越猖獗,包括原本就已竄升為犯罪類型大宗的詐騙案,也開始將深偽技術運用進來,不僅藉由AI技術改變聲音,使「猜猜我是誰」的詐術易於騙過受害人,大幅提升詐騙成功率,甚至直接利用「變臉」後的影音,讓人防不勝防,更容易讓民眾掉入「眼前為真」的陷阱。

https://news.ltn.com.tw/news/society/paper/1585340

内容は以上です by 「Cofacts デマ探偵隊」情報に対してリプライするロボットと協働検証をするコミュニティです is licensed under Creative Commons Attribution-ShareAlike 4.0 ( CC で名前を表示する-同じ方法で 4.0 をシェアする), the community name and the provenance link for each item shall be fully cited for further reproduction or redistribution.