Sfatul celor de la Amazon pentru oamenii legii este ca aceștia să folosească rezultatele oferite de Rekognition doar dacă tehnologia arată că este 99% sigură că a găsit persoana potrivită. De asemenea, Amazon a subliniat că, deși folosirea instrumentului pe portrete robot nu încalcă vreo lege, oamenii care analizează rezultatele ar trebui să aibă mare atenție la gradul de încredere al potrivirilor.

Jurnaliștii de la The Washington Post au aflat însă că ofițerii nici măcar nu au văzut sistemul de încredere în rezultatele primite. În schimb, acestora li s-a prezentat de fiecare dată câte cinci posibile potriviri indiferent de încrederea atribuită de Rekognition rezultatului. Experții în inteligență artificială au explicat pentru Washington Post că acest lucru poate duce la mai multe potriviri false – și, implicit, acuzații false. Ofițerii vor avea apoi o viziune subiectivă în minte când vor conduce investigația. „Deja ți s-a spus că acesta este [infractorul], așa că atunci când investighezi, îți va sta pe creier”, a zis șeful adjunct de la Oregon’s Office of Public Defense Service. „Întrebarea nu mai este cine a comis crima, ci unde sunt dovezile care să ateste analiza computerului?”.

Potrivit playtech.ro, pe lângă faptul că rezultatele pot trimite ofițerii pe piste false, mai este o problemă. Folosirea instrumentului Rekognition pe oameni inconștienți sau pe oameni care refuză să spună cine sunt este o încălcare a drepturilor civile în statul Oregon. Astfel, atâta timp cât nu există reguli mai clare cu privire la folosirea tehnologiilor de recunoaștere facială, oamenii legii le vor folosi după bunul plac.