Nyheter

DeepSafe får 3 millioner dollar i støtte fra Antalpha og Spark Digital Capital

Av

Shweta Chakrawarty

Shweta Chakrawarty

DeepSafe, et desentralisert AI-verifiseringsnettverk, sikret seg 3 millioner dollar i såkornfinansiering fra Antalpha for å utvikle sine sikre AI-systemer.

DeepSafe får 3 millioner dollar i støtte fra Antalpha og Spark Digital Capital

Hurtig sammendrag

Sammendrag er AI-generert, gjennomgått av redaksjonen.

  • DeepSafe hentet inn 3 millioner dollar i såkornfinansiering ledet av Antalpha Ventures og Spark Digital Capital.

  • Selskapet bygger et desentralisert verifiseringslag for AI-tillit og ansvarlighet.

  • CRVA-algoritmen bruker Ring-VRF, ZKP, MPC og TEE for å muliggjøre manipulasjonssikker verifisering med flere agenter.

  • DeepSafe planlegger å utvide forskning og onboarding av utviklere for å lage en ny standard for AI-verifisering.

Det desentraliserte AI-verifiseringsnettverket DeepSafe har sikret 3 millioner dollar i såkornfinansiering fra store investorer, blant dem Antalpha Ventures og Spark Digital Capital. Finansieringen markerer en sterk tillitserklæring til DeepSafes mål om å gjøre kunstig intelligens mer transparent, sikker og etterprøvbar.

Et løft for tillit i AI

AI-systemer utvikler seg raskt, men tillit forblir en stor utfordring. DeepSafe ønsker å løse dette ved å bygge et desentralisert verifiseringslag som bekrefter om AI-oppførsel faktisk samsvarer med menneskelige intensjoner. Teknologien skal sikre at AI-modeller ikke handler utenfor sine etiske eller operative rammer.

Ved å kombinere kryptografiske teknikker med desentralisert styring, ønsker DeepSafe å gjøre “tillit” til noe brukerne kan verifisere, ikke bare gi. Selskapets tilnærming skal i siste instans styrke ansvarlighet og pålitelighet på tvers av AI-applikasjoner.

Banebrytende kryptografi bak DeepSafe

Kjernen i DeepSafes innovasjon er CRVA, en desentralisert verifiseringsalgoritme som integrerer fire avanserte kryptografiske teknologier: Ring-VRF, Zero-Knowledge Proofs (ZKP), Multi-Party Computation (MPC) og Trusted Execution Environments (TEE).

Denne kombinasjonen muliggjør dynamisk, tilfeldig utvelgelse av verifikasjonsnoder og samarbeidsbasert fleragent-verifisering av AI-atferd – i praksis et slags digitalt jurysystem for AI-handlinger. Modellen tillater både on-chain og off-chain meldingsverifikasjon, slik at AI-resultater kan uavhengig valideres av flere deltakere, i stedet for én sentral myndighet.

Blandingen av personvern, tilfeldighet og desentralisering gjør nettverket motstandsdyktig mot manipulasjon, samtidig som det opprettholder etterprøvbar åpenhet. Teknologien har allerede fått anerkjennelse i det akademiske miljøet: DeepSafes kjerneprotokoll er akseptert for publisering i IEEE Transactions on Information Forensics and Security (TIFS) under dokument-ID 9903072 – en betydelig prestasjon for et prosjekt som fortsatt er i en tidlig fase.

Bygger et globalt verifiseringsnettverk

DeepSafes fremgang er ikke bare teoretisk. Plattformen har allerede verifisert nær 120 millioner transaksjoner og har over 2,65 millioner aktive kontoer. Tallene viser økende interesse fra AI-utviklere og blockchain-entusiaster som ser verdien i et tillitsforankret verifiseringslag.

Selskapets desentraliserte struktur gjør det mulig for enhver kvalifisert node å delta i verifiseringen. Dette skaper et distribuert system som skalerer i takt med brukerveksten. Den samarbeidsbaserte modellen belønner nøyaktighet og åpenhet, samtidig som den motvirker manipulasjon gjennom innebygde kryptografiske sikkerhetsmekanismer.

Støttet av bransjeledere

Såkornrunden, ledet av Antalpha Ventures og Spark Digital Capital, understreker den økende investortilliten i skjæringspunktet mellom AI og Web3. Begge selskapene har tidligere støttet infrastrukturprosjekter som presser teknologiske grenser.

Med den nye finansieringen planlegger DeepSafe å utvide sine forskningspartnerskap, videreutvikle CRVA-protokollen og inkludere flere utviklere i sitt økosystem. Det langsiktige målet er å bygge en verifiseringsstandard som kan tas i bruk på tvers av bransjer – fra finans og robotikk til innholdsgenerering og cybersikkerhet.

Fremtidsutsikter

Etter hvert som kunstig intelligens blir stadig mer integrert i hverdagslige systemer, øker behovet for tillit og verifikasjon. DeepSafes modell tilbyr en desentralisert og manipulasjonssikker løsning for å sikre at AI handler som tiltenkt – uten skjulte skjevheter og uten beslutninger som ikke kan spores.

Kombinasjonen av avansert kryptografi, akademisk validering og tidlig nettverksadopsjon posisjonerer prosjektet som en potensiell grunnpilar i arbeidet for pålitelig AI. Med 3 millioner dollar i ny finansiering og støtte fra etablerte kryptoventure-selskaper, tar DeepSafe nå et klart ledergrep i hvordan verden verifiserer intelligens – både menneskelig og kunstig.

Skrevet av:
Gjennomgang og faktasjekk av:
Bidragsytere:
吴说区块链
Google News Icon

Følg oss på Google News

Få de siste krypto-innsiktene og oppdateringene.

Følg