情報へのリプライ
uienwt正しい情報が含まれています と考えています
uienwt さんのリプライを引用しています
隨著人工智慧發展,「深僞(Deepfake)」技術恐遭有心人士利用於假訊息、影片、語音等媒體素材合成製作,達到「換臉、變聲」等效果,甚至用於強化詐欺手法的擬真性,令民眾難辯真偽,因而受騙。
碰到類似情形,應主動暫停通話,並透過其他管道聯繫對方以確認真實性,多一層警覺,謊言將不攻自破。

References

https://www.119.gov.taipei/News_Content.aspx?n=6C686F344A7BD003&sms=9D72E82EC16F3E64&s=752B97DEE1C49834

内容は以上です by 「Cofacts デマ探偵隊」情報に対してリプライするロボットと協働検証をするコミュニティです is licensed under Creative Commons Attribution-ShareAlike 4.0 ( CC で名前を表示する-同じ方法で 4.0 をシェアする), the community name and the provenance link for each item shall be fully cited for further reproduction or redistribution.