DeepSeek AI Antropic testos piedāvāja kritiskus bioīģes datus

Laikam ejot, pētnieki ir spējuši iegūt lielāku skaidrību par DeepSeek AI modeļu plusiem un mīnusiem. Ķīniešu AI uzņēmums ielauzās segmentā, izraisot avārijas Nvidia un citu lielo vārdu akcijās, pateicoties tās augstajām veiktspējai un acīmredzamajām zemajām izmaksām. Tomēr vairāk ekspertu, šoreiz no antropic, brīdina par to, cik vienkārši ir padarīt DeepSeek AI informāciju, kas ir potenciāli bīstama valsts drošībai.

Anthropic drošības testi parādīja, ka DeepSeek AI bloķē kaitīgas uzvednes

Anthropic, Kloda AI mātes uzņēmums, ir viens no vadošajiem nosaukumiem nozarē. Tiek ziņots, ka uzņēmuma modeļi nodrošinās Amazon gaidāmo AI darbināmo Alexa. Antropisks arī regulāri pārbauda dažādus AI modeļus, lai noteiktu, cik tām ir tendence uz “cietumu”. Tas ir, radot kaitīgu saturu, apejot drošības barjeras.

Antropic izpilddirektors Dario Amodei pauda bažas par to, cik viegli DeepSeek rada retu informāciju, kas saistīta ar bioloģiskajiem ieročiem. Izpilddirektors sacīja, ka Deepseek sniegums bija “vissliktākais no jebkura modeļa, ko mēs jebkad esam pārbaudījuši. Viņš nerunāja par sniegumu etalonos, kur Ķīnas uzņēmuma modeļi ir ļoti efektīvi. Viņš atsaucās uz AI modeļu sniegumu, bloķējot kaitīgu uzvedību.

Pārbaudes parādīja, ka DeepSeek “nebija absolūti nekādu bloku, lai ģenerētu šo informāciju. Ar bioeapēmiem saistītie dati tika uzskatīti par retiem, jo ​​tie nebija pieejami Google vai mācību grāmatās. Tas nozīmē, ka Amodei neteica, uz kuru DeepSeek AI modeli viņš atsaucas. Tomēr ir diezgan iespējams, ka viņš runā par R1, uz argumentāciju orientētu modeli.

Cisco testi deva līdzīgus rezultātus

Faktiski Cisco komanda nesen ieguva līdzīgus rezultātus citā testu komplektā. DeepSEEK R1 modelis parādīja uzbrukuma panākumu līmeni (ASR) 100%. Tas nozīmē, ka tas nespēja bloķēt pārbaudītās kaitīgās uzvednes. Šīs uzvednes tika izstrādātas, lai ģenerētu potenciāli noderīgus rezultātus “kibernoziegumi, dezinformācija, nelikumīgas darbības un vispārējs kaitējums. Tomēr Cisco testi deva satraucošus rezultātus arī citām labi zināmām AI platformām. GPT 1,5 Pro modeļa ASR bija 86%, bet Meta’s Llama 3,1 405B bija 96% ASR.

Amodei vēl neuzskata DeepSeek modeļus par sevi par “Burtiski bīstams. Tomēr viņš mudina attīstības komandu uz “nopietni uztveriet šos AI drošības apsvērumus. Viņš arī jau uzskata DeepSeek kā vienu no galvenajiem konkurentiem mākslīgā intelekta segmentā.