Microsoft AI rīks rada vardarbīgus, nepārprotamus attēlus un ignorē autortiesības: brīdina Microsoft inženieris

Nesenais Microsoft iekšējais ziņojums atkal ir izvirzījis mākslīgā intelekta (AI) ētisku izmantošanu uzmanības centrā. Saskaņā ar CNBC ekskluzīvu informāciju Microsoft inženieris 2023. gada decembrī pacēla sarkanos karogus saistībā ar uzņēmuma AI vadīto attēlu ģenerēšanas rīku Copilot Designer. Copilot Designer, kas tika palaists gada sākumā, ļauj lietotājiem ģenerēt attēlus, pamatojoties uz teksta uzvednēm, līdzīgi citiem AI rīkiem, piemēram, OpenAI DALL-E.

Šeins Džonss, Microsoft AI inženieris, iekšējās testēšanas laikā nejauši atklāja satraucošus atklājumus. Viņš atklāja, ka rīks var radīt potenciāli kaitīgu saturu, tostarp vardarbīgus un seksuāla rakstura attēlus, ja tiek ievadīti konkrēti atslēgvārdi. Turklāt radās bažas par iespējamiem autortiesību pārkāpumiem, jo ​​rīks ģenerēja attēlus ar tādiem Disneja īpašumiem kā Elza un Mikipele.

Kādā vēlā decembra vakarā Džounsu pārsteidza viņa ekrānā redzamie attēli. Viņš eksperimentēja ar Copilot Designer, mākslīgā intelekta attēlu ģeneratoru, ko darbina OpenAI tehnoloģija, kopš tā izlaišanas 2023. gada martā. Līdzīgi kā OpenAI DALL-E, lietotāji ievada teksta uzvednes, lai uzburtu attēlus, veicinot neierobežotu radošumu.

Pēdējo mēnesi Džonss rūpīgi pārbaudīja produkta ievainojamību, kas pazīstams kā red-teaming. Šajā periodā viņš novēroja, ka rīks ģenerēja attēlus, kas bija pretrunā Microsoft vispāratzītajiem atbildīga AI principiem.

Kā ziņots, Microsoft, atzīstot situācijas nopietnību, uzsāka izmeklēšanu, lai novērstu Džonsa bažas. Šis incidents uzsver pastāvīgās problēmas un ētiskās dilemmas, kas saistītas ar mākslīgā intelekta attīstību un apzinīgu izmantošanu, īpaši tādās jomās kā attēlu ģenerēšana, ziņoja CNBC.

AI pakalpojumā tika attēloti dažādi scenāriji, sākot no dēmoniem un briesmoņiem līdz tēmām, kas saistītas ar abortu tiesībām, pusaudžiem, kas izmanto triecienšautenes, seksualizētu sieviešu attēlojumu vardarbīgos scenārijos, kā arī nepilngadīgo alkohola un narkotiku lietošanas attēlojumu. CNBC šonedēļ varēja atkārtot šīs ainas, izmantojot Copilot rīku, kas sākotnēji tika nosaukts Bing Image Creator.

“Tas patiesi bija acis atverošs brīdis,” Džounss atklāja intervijā CNBC. “Tas iezīmēja atziņu, ka šis modelis nav tik drošs, kā mēs domājām.”

Sešus gadus strādājot Microsoft, Džonss pašlaik strādā par galveno programmatūras inženieru vadītāju uzņēmuma galvenajā mītnē Redmondā, Vašingtonā. Lai gan viņš oficiāli nestrādā pie Copilot, Džonss kā sarkanais komandas loceklis ir daļa no darbinieku un ārējo līdzstrādnieku grupas, kas brīvajā laikā brīvprātīgi pārbauda uzņēmuma AI tehnoloģiju, lai noteiktu iespējamās problēmas.

Džounss bija pietiekami satraukts par saviem atklājumiem, lai decembrī sāktu ziņot par saviem atklājumiem iekšēji. Neskatoties uz to, ka Microsoft atzina viņa bažas, tā atteicās izņemt produktu no tirgus. Tā vietā uzņēmums Džounsu vērsa uz OpenAI, un, kad atbilde netika saņemta, viņš vērsās LinkedIn, lai izdotu atklātu vēstuli, mudinot starta valdi veikt izmeklēšanu un uz laiku apturēt DALL-E 3, jaunāko AI modeļa iterāciju.

“Pēdējo trīs mēnešu laikā es konsekventi esmu mudinājis Microsoft atsaukt Copilot Designer no publiskās lietošanas, līdz tiek ieviesti stingrāki aizsardzības pasākumi,” Džonss norādīja savā vēstulē Hanam. Viņš uzsvēra, ka, neskatoties uz viņa ieteikumu, Microsoft to ir “noraidījusi”. Līdz ar to viņš tagad iestājas par informācijas iekļaušanu par produktu un tā vērtējuma modifikāciju Google Android lietotnē, precizējot, ka tā ir piemērota tikai pieaugušajiem.

“Viņiem atkal nav izdevies ieviest šīs modifikācijas, un viņi turpina reklamēt produktu kā piemērotu jebkuram. Jebkur. Jebkura ierīce, ”viņš žēlojās. Džounss norādīja, ka risku “atpazina gan Microsoft, gan OpenAI pirms AI modeļa publiskās palaišanas pagājušā gada oktobrī.”

“Mēs esam apņēmušies risināt visas darbinieku bažas saskaņā ar mūsu uzņēmuma politiku, un novērtējam darbinieku centienus izpētīt un testēt mūsu jaunākās tehnoloģijas, lai vēl vairāk uzlabotu tās drošību,” CNBC sacīja Microsoft pārstāvis. “Runājot par drošības apiešanas pasākumiem vai bažām, kas varētu potenciāli ietekmēt mūsu pakalpojumus vai mūsu partnerus, mēs esam izveidojuši stabilus iekšējos ziņošanas kanālus, lai pareizi izmeklētu un novērstu visas problēmas, ko mēs mudinām darbiniekus izmantot, lai mēs varētu atbilstoši apstiprināt un pārbaudīt. viņu bažas.”