En flora av verktyg finns redan nu, med funktionalitet som:
- Generering av nya testfall baserat på ett givet Coverage Criteria (som exempelvis: Kodrader, branches, output och mutation testing)
- Användning av Machine Learning för att skapa robusta & återanvändningsbara UI-tester
- Förstärkning av tester med hjälp av visuella verifieringar
- Generering av testfall baserat på användarbeteende
- Och mycket, mycket mer.
Vi, jag och mitt team har valt att fokusera på två frågor som är centrerade kring det vi är bäst på - nämligen arbetet inom kvalitetssäkring.
1. Hur kvalitetssäkrar vi en AI-lösning?
2. Hur använder vi oss av AI, som ett verktyg, för kvalitetssäkring?
När det gäller kvalitetssäkring av AI-lösningar tror vi att följande områden är viktiga, och det är åt det hållet vi styrt vårt erbjudande:
- Förståelse för hur man testar ett rörligt mål, kunna uttrycka testresultat i form av statistisk sannolikhet snarare än Pass/Fail.
- Kunskap inom utveckling av Machine Learning, Prediktiv Analys samt för arkitekturen av dessa nätverk/system.
- Kunskap om hur man utvärderar kvaliteten inom ett Machine Learning- , Neuralt- eller Deep Learning-nätverk.
- Kunskap om hur man bygger upp datamodeller för att ta fram relevanta och objektiva Inlärnings- & Test scenarios.
- Kunskap om hur man använder sig av API:er under testning.
- Kunskap nog att guida testprocessen, inom hur affärsnytta, slutanvändarna & etik-aspekter återspeglas i hur AI-modellens förmåga att uppnå de satta målen.