Anthropic heeft updates aangekondigd voor zijn beleid rond verantwoorde AI-ontwikkeling. Het bedrijf definieert nu welke modellen krachtig genoeg zijn om extra bescherming te krijgen. De door Amazon gesteunde onderneming publiceerde deze veiligheids- en beveiligingsupdates in een blogbericht.
Als Anthropic tijdens het testen van een AI-model ontdekt dat het mogelijk een staat kan helpen bij het ontwikkelen van chemische of biologische wapens, zal het bedrijf direct nieuwe veiligheidsmaatregelen invoeren. Dit gebeurt voordat zo'n technologie wordt uitgebracht. Hetzelfde geldt als een model de rol van een beginnende Anthropic-onderzoeker volledig kan automatiseren.
Chemische en biologische wapens
"Als we merken dat een model potentieel een middelgroot staatsprogramma kan helpen bij het ontwikkelen van chemische en biologische wapens, zullen we nieuwe veiligheidsprotocollen implementeren voordat we deze technologie uitrollen", zei Anthropic in een verklaring.
Anthropic sloot in maart een financieringsronde af met een waardering van 61,5 miljard dollar. Dit maakt het een van de hoogst gewaardeerde AI-startups. Toch is dit slechts een fractie van de waarde van OpenAI, dat maandag aankondigde een investeringsronde van 40 miljard dollar te hebben afgesloten tegen een waardering van 300 miljard dollar.
Verborgen apparaten
In een eerdere versie van het beleid, gepubliceerd in oktober, meldde Anthropic dat het kantoren zou gaan controleren op verborgen apparaten. "We voeren deze inspecties uit met geavanceerde detectieapparatuur en technieken om mogelijke indringers te vinden", aldus het bedrijf. Anthropic bevestigde inmiddels dat het zowel een uitvoerende risicoraad als een intern beveiligingsteam heeft opgezet.
LAATSTE AI-NIEUWS
Exclusieve whitepapers en e-books met waardevolle kennis en AI-prompts - ontwikkeld om direct resultaat te leveren.
Je kunt deze krachtige tools zo downloaden.
➡️ Ga naar de producten-pagina en profiteer nu!