Existuje stále více a více vývoje umělá inteligence, se složitost této AI pokaždé zvyšuje a také oblast použití. Již se používá ve zdravotnictví, veřejné správě, výzkumu, službách atd. Ale tyto algoritmy nejsou spolehlivé, pokud jde o bezpečnost, existují pro ně také potenciální hrozby. Jak AI postupuje, detekuje se stále více hrozeb. Proto je důležitý nástroj jako Counterfit.
Jelikož se jedná o velmi kritické systémy, jsou zapotřebí bezpečné systémy umělé inteligence. A k tomu řada standardů pro audity a nástroje pro mít možnost je snadněji auditovat. Příkladem je tento nástroj společnosti Microsoft, který jsem zmínil v předchozím odstavci.
Microsoft vyvinul tento nástroj, který značně usnadní práci, a to prostřednictvím licence open source (licence MIT) a prostřednictvím své platformy GitHub, aby byl přístupný všem, kteří ho chtějí používat, a také aby byl schopný podílet se na jeho vývoji. protikus Umožní vývojářům otestovat zabezpečení systémů umělé inteligence v rané fázi vývoje, čímž zajistí, že zde nebudou žádné kritické díry.
Máte-li zájem vědět o ní, můžete přistupovat k úložiště na GitHubu z tohoto odkazu. Zde najdete zdrojový kód, informace nebo si jej můžete stáhnout a otestovat na více platformách. Jelikož je napsán v Pythonu, můžete jej bez problémů použít i v Linuxu.
Tento nástroj se zrodil v Microsoftu kvůli jejich vlastní potřebě vyhodnotit jejich systémy umělá inteligence a strojové učení hledají zranitelná místa. Původně byl určen pro testování systémů, ale nyní jej lze použít také ve fázi vývoje AI.
Jak vidíte na webu, budete muset nainstalovat Anaconda Python v místní, aby bylo možné používat skript Pythonu. Další možností je použít jej prostřednictvím Azure Shell z webového prohlížeče.