Meta heeft op 7 december een reeks tools uitgebracht voor het beveiligen en benchmarken van generatieve kunstmatige intelligentiemodellen (AI).
De toolkit, genaamd ‘Purple Llama’, is ontworpen om ontwikkelaars te helpen veilig te bouwen met generatieve AI-tools, zoals Meta’s open-sourcemodel, Llama-2.
Volgens een blogpost van Meta verwijst het ‘paarse’ deel van ‘Purple Llama’ naar een combinatie van ‘red-teaming’ en ‘blue teaming’.
* Metrieken voor het kwantificeren van LLM-cyberbeveiligingsrisico's.
* Hulpmiddelen om de frequentie van onveilige codesuggesties te evalueren.
* Tools om LLM's te evalueren om het moeilijker te maken om kwaadaardige code te genereren of te helpen bij het uitvoeren van cyberaanvallen.
Reactie plaatsen
Reacties