Ang DeFi Risk Assessor Sherlock ay Nagtaas ng $1.5M sa Pre-Seed Funding
Ang pangangalap ng pondo ay pinangunahan ng IDEO CoLab Ventures, na may partisipasyon mula sa A.Capital Ventures, Scalar Capital at DeFi Alliance.

Ang Sherlock, isang risk-analysis system para sa desentralisadong Finance (DeFi), ay nakalikom ng $1.5 milyon sa isang pre-seed funding round.
Inanunsyo noong Huwebes, ang pangangalap ng pondo ay pinangunahan ng IDEO CoLab Ventures, na may partisipasyon mula sa A.Capital Ventures, Scalar Capital at DeFi Alliance.
Ang insurance sa Crypto ay RARE, at ang pagbibigay ng kapayapaan ng isip sa loob ng eksperimental na DeFi space ay limitado sa ilang mga solusyon, gaya ng Nexus Mutual's desentralisadong diskarte sa pool ng panganib.
Gumagamit ang Sherlock ng mga eksperto sa seguridad ng smart-contract upang masuri ang pangunahing panganib na nakalakip sa mga platform ng DeFi. Mayroon na itong mahabang listahan ng mga anghel na mamumuhunan, kabilang ang mga executive at developer mula sa mga kumpanya kabilang ang Aave, Synthetix at Quantstamp.
"Ang pangunahing pagsusuri sa panganib at direktang sumasaklaw sa mga protocol ay isang mabigat na pagtaas," Gavin McDermott, kasosyo sa IDEO CoLab Ventures sa isang pahayag. "Ngunit kung ang modelo ng Sherlock ay maaaring i-scale sa isang makabuluhang porsyento ng TVL sa DeFi, ang kanilang network ay makabuluhang mapabuti ang kaligtasan para sa buong industriya."
PAGWAWASTO (HUNYO 3 12:18 UTC): Itinutuwid ang spelling ng pangalan ng mamumuhunan sa Synthetix.
Tingnan din ang: Bumper, isang DeFi-Based Crypto Volatility Protection Plan, Tumataas ng $10M
Higit pang Para sa Iyo
Natutukoy ng espesyalisadong AI ang 92% ng mga totoong DeFi exploit

Sinasabi ng isang bagong pananaliksik na ang espesyalisadong AI ay higit na nakahigitan ang mga pangkalahatang modelo sa pagtukoy ng mga sinasamantalang kahinaan ng DeFi.
Ano ang dapat malaman:
- Isang AI security agent na ginawa para sa layuning ito ang nakatukoy ng mga kahinaan sa 92% ng 90 na na-exploit na kontrata ng DeFi ($96.8 milyon sa halaga ng exploit), kumpara sa 34% at $7.5 milyon para sa isang baseline na GPT-5.1-based coding agent na tumatakbo sa parehong pinagbabatayang modelo.
- Ang agwat ay nagmula sa metodolohiya ng seguridad na partikular sa domain na nakapatong sa ibabaw ng modelo, hindi sa mga pagkakaiba sa kakayahan ng CORE AI, ayon sa ulat.
- Ang mga natuklasan ay dumating kasabay ng mga naunang pananaliksik mula sa Anthropic at OpenAI na nagpapakita na ang mga ahente ng AI ay maaaring magsagawa ng end-to-end na smart contract exploits sa mababang gastos, na nagpapabilis sa mga pangamba na ang mga kakayahan ng opensibong AI ay mas mabilis na lumalawak kaysa sa depensibong pag-aampon.











