Metoodika

Kuidas hindamine töötab

Teoreetiline alus

AI Risk Index põhineb neljas uurimisvaldkonnas: automatiseerimisviga (Parasuraman & Riley, 1997), vastutuse hajumine tehnoloogilistes süsteemides (Matthias, 2004), oskuste degradeerumine automatiseerimise tõttu (Bainbridge, 1983) ning IT juhtimisraamistikud (COBIT, ISO 27001).

Metoodika tugineb automatiseerimiskalde uurimiskirjandusele (Parasuraman & Manzey, 2010), NIST AI RMF raamistikule (2023) ja EU AI Act riskikategooriatele (Lisa III).

Viis mõõdet

D1: Pime usaldus (maks 20 punkti)

Mõõdab, kui kriitiliselt insenerid AI-väljundit hindavad ja kas esineb liigse usaldamise märke.

D2: Vastutus (maks 25 punkti)

Hindab vastutuse selgust, otsuste dokumenteerimist ja formaalset omandi määramist AI-väljunditele.

D3: Oskused ja sõltuvus (maks 25 punkti)

Mõõdab meeskonna sõltuvust AI tööriistadest, juunioride arengut ja tööjõu otsuseid.

D4: Juhtimiskord (maks 40 punkti)

Hindab poliitikaid, kvaliteedimeetrikaid, kontrollimehhanisme, andmelekke riske ja juhtkonna kaasatust.

D5: Kasutuselevõtt

Mõõdab, kui kiiresti ja kui laialdaselt AI tööriistad organisatsioonis levivad ning kui suureks on AI muutunud vaikimisi tööviis.

Tulemuste tasemed

AI-vastupidav80–100% — tugev juhtimine ja teadlikkus
AI-teadlik60–79% — hea alus, mõned lüngad
AI-haavatav40–59% — märkimisväärsed riskid
AI-ohustatud0–39% — viivitamatu tegutsemine vajalik

Piirangud

See on enesehindamine, mis põhineb subjektiivsetel vastustel. Tulemused on suunavad, mitte diagnostilised. Skoor ei asenda professionaalset riskiauditit. Hindamine on ekspertpõhine — valideerimisprotsess on käimas.


Methodology

How the assessment works

Theoretical foundations

The AI Risk Index draws on four research areas: automation bias (Parasuraman & Riley, 1997), accountability diffusion in technological systems (Matthias, 2004), skill degradation through automation (Bainbridge, 1983), and IT governance frameworks (COBIT, ISO 27001).

Methodology draws on automation bias research (Parasuraman & Manzey, 2010), the NIST AI Risk Management Framework (2023), and EU AI Act risk categories (Annex III).

Five dimensions

D1: Automation Trust (max 20 points)

Measures how critically engineers evaluate AI output and whether signs of over-trust are present.

D2: Accountability (max 25 points)

Evaluates clarity of accountability, decision documentation, and formal ownership assignment for AI outputs.

D3: Skills & Dependency (max 25 points)

Measures team dependency on AI tools, junior developer growth, and headcount decisions.

D4: Governance (max 40 points)

Evaluates policies, quality metrics, governance controls, data leakage risks, and leadership engagement.

D5: Adoption

Measures how quickly and widely AI tools are spreading through the organisation and how much AI has become the default way of working.

Score bands

AI-Resilient80–100% — strong governance and awareness
AI-Aware60–79% — good foundation, some gaps
AI-Exposed40–59% — significant risks present
AI-Vulnerable0–39% — immediate action required

Limitations

This is a self-assessment based on subjective responses. Results are directional, not diagnostic. The score does not replace a professional risk audit. The assessment is expert-informed — a validation process is ongoing.