Ang Deepfake Scam ay Isang Banta sa Sangkatauhan — Narito Kung Paano Lumaban
Ang mga zero-knowledge proofs ay nagdaragdag ng mahalagang layer ng integridad sa AI moderation, na nagbibigay-daan sa mga kumpanya na i-verify ang mga desisyon nang hindi inilalantad ang sensitibong data o mga proprietary na modelo, sabi ni Ismael Hishon-Rezaizadeh, CEO at Founder ng Lagrange.

Ano ang dapat malaman:
- Binuwag ng pulisya ng Hong Kong ang isang $46 milyon Cryptocurrency scam gamit ang advanced na deepfake Technology.
- Ang mga deepfake na binuo ng AI ay itinuturing na ngayon na isang malaking banta sa pambansang seguridad at mga sistema ng pananalapi.
- Nag-aalok ang Zero-knowledge machine learning ng isang promising na solusyon para sa nabe-verify at mahusay na pag-moderate ng content.
Noong nakaraang taon, inaresto ng pulisya ng Hong Kong ang isang grupo na responsable para sa isang $46 milyon Cryptocurrency investment scam na gumamit ng deepfake Technology. Nakipagtulungan ang grupo sa mga network ng scam sa ibang bansa upang lumikha ng mga nakakumbinsi na pekeng investment platform. Ngayon, ang mga tool na ito ay naging mas advanced, ngayon ay umaabot sa AI-generated na video, na mas mabilis na umuusbong kaysa sa anumang iba pang anyo ng media.
Nag-ambag ang nakakahamak na AI mahigit $12 bilyon sa pandaigdigang pagkalugi mula sa pandaraya noong 2024. Ang U.S. Department of Homeland Security ngayon mga tawag Binuo ng AI deepfakes isang "malinaw, kasalukuyan, at umuusbong na banta" sa pambansang seguridad, Finance at lipunan. Denmark ay isinasaalang-alang ang pag-amyenda sa batas nito sa copyright upang labanan ang mga hindi awtorisadong deepfakes, na nagbibigay sa bawat tao ng "karapatan sa kanilang sariling katawan, tampok ng mukha at boses."
Ang mga deepfakes ay malinaw na isang tumitinding banta sa lipunan. Upang ipagtanggol ang digital na mundo, kailangan natin ang AI upang ma-verify at ang pag-moderate ng nilalaman upang masuportahan ng cryptographic na patunay, hindi lamang ng tiwala. Ang mga diskarte sa zero-knowledge machine learning (zkML) ay nagbubukas ng mga bagong paraan upang patunayan na ang mga output ay wasto, nang hindi inilalantad ang pinagbabatayan na modelo o data.
Nasira ang Kasalukuyang Pagmo-moderate
Nahihirapan ang kontemporaryong pagmo-moderate ng nilalaman na KEEP sa pagmamanipula ng AI. Kapag ang isang piraso ng nakakahamak na nilalaman ay na-upload sa maraming platform, ang bawat platform ay dapat na independiyenteng i-reclassify ang duplicate na nilalaman na iyon, pag-aaksaya ng mga mapagkukunan ng computational at pagdaragdag ng latency.
Mas masahol pa, maaaring mag-iba ang mga algorithm at patakaran ng bawat platform, at ang isang video na na-flag sa ONE site ay maaaring ituring na benign sa isa pa. Walang transparency ang buong proseso, at ang paggawa ng desisyon ng AI ng mga platform ay umiiral sa isang “black box.” Bihirang malaman ng mga user kung bakit inalis o pinapayagan ang isang bagay.
Ang pira-pirasong diskarte sa pagmo-moderate na ito ay ginagawang mas mahirap para sa mga tool sa pag-detect na gumanap nang maayos. ONE pag-aaral natagpuan na ang katumpakan ng mga modelo ng pag-detect ay "bumaba nang husto" sa tunay na wild data, kung minsan ay nagpapababa sa random na paghula kapag nahaharap sa mga nobelang deepfake.
Ang mga negosyo ay nakababahala na kulang sa paghahanda, na may 42% ng mga kumpanya umaamin "medyo tiwala" lang sila sa kanilang kakayahang makita ang mga deepfakes. Ang patuloy na muling pag-scan ng nilalaman at paghabol sa mga bagong pamemeke ay isang talunan. Kailangan namin ng systemic na pag-aayos na ginagawang portable, mapagkakatiwalaan, at mahusay ang mga resulta ng pag-moderate sa buong web.
Solusyon: Na-verify na Pagmo-moderate
Nagbibigay ang Zero-knowledge Machine Learning (zkML) ng isang paraan para sa pagpapatunay ng mga desisyon sa pagmo-moderate na nakabatay sa AI nang walang pagdodoble ng trabaho o pagbubunyag ng sensitibong impormasyon. Ang ideya ay magkaroon ang mga AI classifier na makagawa ng hindi lamang isang label, kundi pati na rin ng isang cryptographic na patunay ng pag-uuri na iyon.
Isipin ang isang modelo ng pag-moderate na sinusuri ang isang piraso ng nilalaman (isang larawan, video, teksto, ETC.) at itinatalaga ito ng ONE o higit pang mga label (halimbawa, Ligtas para sa Trabaho, Hindi Ligtas para sa Trabaho, Marahas, Pornograpiko, ETC.). Kasama ng mga label, ang system ay bumubuo ng isang zero-knowledge proof na nagpapatunay na isang kilalang modelo ng AI ang nagproseso ng nilalaman at gumawa ng mga resulta ng pag-uuri na iyon. Ang patunay na ito ay naka-embed sa metadata ng content, na nagbibigay-daan sa mismong content na magdala ng tamper-event moderation badge. Ang mga producer o distributor ng content ay maaari ding maging cryptographically bound sa moderation status ng kanilang content.
Kapag na-upload o ibinahagi ang nilalaman, maaaring agad na i-verify ng mga platform ang patunay gamit ang magaan na mga pagsusuri sa cryptographic. Kung valid ang patunay, pinagkakatiwalaan ng platform ang ibinigay na klasipikasyon nang hindi na kailangang muling patakbuhin ang sarili nitong pagsusuri sa AI.
Mga Benepisyo ng ZK-Embedded Moderation
Isipin natin ang mga benepisyo dito. Ang pag-verify ng patunay ay mas mabilis at mas simple kaysa sa pagpapatakbo ng malaking modelo ng AI sa bawat pag-upload. Una, mayroon kaming portability ng content moderation, kung saan ang katayuan nito ay maaaring maglakbay kasama nito. Tinitiyak din namin ang transparency sa pamamagitan ng bukas na mabe-verify na mga resulta, na nagbibigay-daan sa sinuman na i-verify ang cryptographic na patunay at kumpirmahin kung paano nilagyan ng label ang content.
Sa sitwasyong ito, ang pagmo-moderate ay nagiging isang beses na pag-compute sa bawat item ng nilalaman, na may mga kasunod na pagsusuri na nabawasan sa murang patunay na mga pag-verify. Ang lahat ng ito ay isinasalin sa malaking pagtitipid sa compute, mas mababang latency sa paghahatid ng nilalaman, at higit pang mga mapagkukunan ng AI upang tumuon sa tunay na bago o pinagtatalunang nilalaman.
Habang patuloy na sumasabog ang content na binuo ng AI, kayang hawakan ng zk-enabled na moderation ang sukat. Ang diskarte na ito ay nagpapagaan sa pagkarga sa mga platform, na nagbibigay-daan sa pag-moderate na KEEP sa mga stream na may mataas na volume sa real time.
Ang Integrity Layer para sa AI
Ang mga zero-knowledge proofs ay nagbibigay ng nawawalang integrity layer na kailangan ng AI-based na moderation. Nagbibigay-daan ang mga ito sa amin na patunayan na ang mga desisyon ng AI (tulad ng mga pag-uuri ng nilalaman) ay ginawa nang tama, nang hindi inilalantad ang mga sensitibong input o ang mga panloob ng modelo. Nangangahulugan ito na ang mga kumpanya ay maaaring magpatupad ng mga patakaran sa pagmo-moderate at magbahagi ng mga mapagkakatiwalaang resulta sa isa't isa, o sa publiko, habang pinoprotektahan ang Privacy ng user at pagmamay-ari na lohika ng AI.
Ang pag-embed ng pagiging verifiability sa antas ng content ay maaaring magbago ng mga opaque at redundant na moderation system sa isang desentralisado, cryptographically verifiable web of trust. Sa halip na umasa sa mga platform para sabihing "pagkatiwalaan ang aming mga filter ng AI," maaaring may kasamang mga garantiya sa matematika ang mga output ng moderation. Kung T namin isasama ang ganitong uri ng scalable verifiability ngayon, maaaring masira ng AI-driven na pagmamanipula at maling impormasyon ang mga huling piraso ng online na tiwala.
Maaari pa rin nating gawing ebidensiya ang AI moderation mula sa isang gawa ng pananampalataya — at sa paggawa nito, muling buuin ang tiwala hindi lamang sa mga platform, kundi sa mga ekosistema ng impormasyon na humuhubog sa pampublikong diskurso, halalan, at sa ating ibinahaging pakiramdam ng katotohanan.
Tandaan: Ang mga pananaw na ipinahayag sa column na ito ay sa may-akda at hindi kinakailangang sumasalamin sa mga pananaw ng CoinDesk, Inc. o sa mga may-ari at kaakibat nito.
More For You
Protocol Research: GoPlus Security

需要了解的:
- As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
- GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
- Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.
More For You
Compliance, Credibility, and Consumer Trust in the New Age of Crypto ATMs

Bitcoin Depot’s Scott Buchanan argues that crypto ATM operators must continually strengthen their safeguards and make things safer and more transparent for users — protective actions that not only benefit individual crypto users but also bolster the market’s integrity and support its long-term growth.









