วันพุธที่ 19 พฤศจิกายน 2568
19 พ.ย. 2568 01:01 | 31 view
@natcha
จากเหยื่อ...สู่ผู้ร้าย! DSI เตือนภัย AI หลอก AI หรือการใช้เทคโนโลยี Deepfake สร้างภาพเคลื่อนไหวใบหน้าของเหยื่อเพื่อหลอกระบบธนาคาร 5 ขั้นตอนที่คนร้ายใช้ในการโจมตี
1. ติดต่อล่อลวง
2. หลอกขอข้อมูล
3. สร้างภาพ AI (Deepfake)
4. นําภาพ/วิดีโอ AI หลอกไปลองระบบ KYC
5. หลอกลวงระบบจนสําเร็จ
ห้ามส่งภาพหน้าตรง หรือวิดีโอใบหน้า เพื่อยืนยันตัวตนให้ใครที่ไม่น่าเชื่อถือเด็ดขาด!
#DSI #กรมสอบสวนคดีพิเศษ #ภัยไซเบอร์ #KYC #สแกมเมอร์ #TV5HD #ช่อง5
ข่าว
19 พ.ย. 2568 13:26 29 views
ข่าว
19 พ.ย. 2568 12:48 61 views
ข่าว
19 พ.ย. 2568 12:32 43 views
ข่าว
19 พ.ย. 2568 12:28 53 views
ข่าว
19 พ.ย. 2568 12:01 51 views
ข่าว
19 พ.ย. 2568 11:33 61 views
ข่าว
19 พ.ย. 2568 11:27 96 views
ข่าว
19 พ.ย. 2568 11:17 67 views
ข่าว
19 พ.ย. 2568 10:56 68 views
ข่าว
19 พ.ย. 2568 10:34 107 views
ข่าว
19 พ.ย. 2568 10:25 126 views
ข่าว
19 พ.ย. 2568 10:02 411 views
ข่าว
19 พ.ย. 2568 09:59 98 views
ข่าว
19 พ.ย. 2568 09:49 65 views
ข่าว
19 พ.ย. 2568 09:40 97 views
ข่าว
19 พ.ย. 2568 09:34 109 views