[ home ] [ indice ] [ b / s / hd / 420 ] [ v / aff / cul / pol / ck ]

/pol/ - Politica

Nome
Email 
Messaggio

File
Embed
Password

  [Vai in fondo]   [Catalogo]   [Torna]   [Archivio]

File: bigstock-Face-Detection-A….jpeg (136,51 KB, 1068x1067)

 No.30973

>Wrongfully Accused by an Algorithm

>In what may be the first known case of its kind, a faulty facial recognition match led to a Michigan man’s arrest for a crime he did not commit.


https://archive.is/LIxjW

Il prossimo potresti essere tu, anon.

 No.30978

Succede anche con i testimoni umani, in realtà i problemi sono su tutto il riconoscimento visivo fatto con le macchine e la cosa finirà quando ci saranno dispositivi ultra economici a fare da sensori di riconoscimento all'azione delle macchine.
Sarà dura mantenere il filo su un binario /pol/itico e non tecnico.

 No.30980

>>30978
>Sarà dura mantenere il filo su un binario /pol/itico e non tecnico.
Solo se ci si vuole illudere che nel caso specifico l'errore è nello strumento e non in come lo si è usato.

 No.31858

>>30980
Elabora perché potrebbe essere interessante o merda che puzza.
Le illazioni fini a sé stesse ovviamente sono parte della seconda categoria.

 No.31990

>>31858
>sii sbirro
>sii responsabile di una linea investigativa
>hai diversi strumenti di indagine
>gli strumenti di indagine ti danno delle "piste"
>ogni "pista" deve essere verificata a dovere, anche attraverso controlli incrociati
>alla fine bisogna dimostrare roba "oltre il ragionevole dubbio", in questo caso, per esempio, la "parola di un informatore", da sola, è aria fritta
>la parola di un informatore deve essere usata, per esempio, per scoprire collegamenti e arrivare a prove documentali
>fast forward
>si aggiunge il riconoscimento facciale agli strumenti di indagine
>"vedi che il sistema è sperimentale" dice il tecnico, "vale ancora meno della parola dell'informatore".
>"non ti preoccupare, non lo userò mai da solo e sono cosciente che produce risultati del cazzo, ma lo userò con giudizio e in congiunzione con gli altri strumenti".
>fast forward
>"oh, il sistema ha riconosciuto 'sto tizio"
>"non è meglio fare un controllo prima? verificare se in quel posto ci sia mai andato? se abita nella stesso quartiere? che dice il manuale a proposito degli "intervalli di confidenza"?"
>eh che cazzo dici? non vedi che è un grosso, grasso …..?
>fast forward
>"oh, ci hanno quasi licenziati perché siamo dei pessimi investigatori, meglio alzare un polverone sul mezzo, che tanto la gente non capisce un tubo di queste cose. Ne di tecnologia di riconoscimento facciale, ne tantomeno di come si fanno le indagini."
Claro?

 No.31991

>>31990
qsq come al solito tutto si riduce che gli sbirri sono subumani.

Also pensare che strumenti e algoritmi possano da soli risolvere problemi è proprio ridicolo. Magari in un futuro, ad oggi la mano umana in queste cose è ancora assolutamente determinante.

 No.31992

>>31991
>qsq come al solito tutto si riduce che gli ingegneri sono subumani.
Non ironicamente fissato. Il problema di buona parte di queste tecnologie è che sono delle black box non interpretabili. Quando parti di interpretabilità, l'ingegnere (tanto in accademia quanto in azienda) risponde "sticazzi, funziona al 97%".

 No.31993

>>31991
>>31992
non siamo su /b/.

 No.31994 SALVIA!

>>31993
Esatto, quindi porta del contenuto oppure stai zitto

 No.31995

>>31994
>qsq come al solito tutto si riduce che gli sbirri sono subumani.
No, la tecnologia è nuova e i responsabili di quell'indagine l'hanno cannata e basta. È un fatto grave, certo, ma è solo un esempio di errori nell'utilizzo del mezzo.
Implicando la negraggine sistemica degli sbirri è un commento da /b/.

> tutto si riduce che gli ingegneri sono subumani.

>Il problema di buona parte di queste tecnologie è che sono delle black box non interpretabili
> Quando parti di interpretabilità, l'ingegnere (tanto in accademia quanto in azienda) risponde "sticazzi, funziona al 97%".
Anche un pc, per molti, è una black box.
Perché "l'ingegnere" dovrebbe essere ritenuto responsabile di quello che fanno i clienti dell'azienda per cui lavora?
Anche questo è un commento da /b/.

Ora, gentilmente, visto che probabilmente sei sempre tu, ottieni il fottere fuori e torna direttamente su retequattro.

 No.31996 SALVIA!

>>31995
Guarda che questo non è il tuo cortile dove puoi parlare solo tu e dire solo tu le tue stronzate. Datti una regolata.

 No.31997

Immagino tutto si potesse chiudere qui >>31990
Un nuovo strumento non esime dalle responsabilità insite nel suo uso.

 No.31998

>>31995
>Perché "l'ingegnere" dovrebbe essere ritenuto responsabile di quello che fanno i clienti dell'azienda per cui lavora?
C'è sia un discorso etico che pragmatico non banale. Immagina un taser, invece di un algoritmo, che al 97% non causa danni permanenti (se ben utilizzato). Ogni tanto però ci scappa il ferito o il morto. Interpellato sul perché, l'ingegnere risponde "boh, ma funziona al 97% nei nostri test". Si stanno sviluppando gli strumenti matematici per interpretare black box? Lentissimamente, contro le linee guida dell'UE, soprattutto per lo scarso interesse della categoria. E questo è grave in situazioni "normali". Se poi ci metti dentro pure gente pazzerella che usa rumore avversariale vedi che il sistema è potenzialmente fragilissimo. O i bias nel training. O…

 No.31999

>>31998
Però è anche vero che se io ti fornisco uno strumento dicendoti "oh, pirla, guarda che ha un margine di errore di tot punti percentuali" e tu decidi comunque di utilizzarlo come se fosse infallibile non riesco a dare la colpa a chi ti ha fornito lo strumento, piuttosto è colpa del cretino che lo usa senza criterio

 No.32001 SALVIA!

Stavo per scrivere un post lunghissimo su come se quel 97% è scritto sulla confezione non puoi ritenere responsabile ne l'azienda ne tantomeno l'ingegnere.
Considerando poi che l'uso del taser non è imposto dall'alto, penso che un bel "Free Market Wins" valga lo stesso come risposta.

>Si stanno sviluppando gli strumenti matematici per interpretare black box?

Eeee?
>Lentissimamente, contro le linee guida dell'UE, soprattutto per lo scarso interesse della categoria.
cos
Anche volendo, cosa c'entra?
Argomenta, prego oppure ottieni il fottere fuori, di nuovo.
>E questo è grave in situazioni "normali". Se poi ci metti dentro pure gente pazzerella che usa rumore avversariale vedi che il sistema è potenzialmente fragilissimo. O i bias nel training. O…
Di cosa gesucristo stai parlando? Che c'entra la compensazione del rumore avversariale su un prodotto che è venduto così come è?

Comunque, >>31999 mi ha anticipato.

 No.32005

>>32001
"Free Market Wins" in caso di dotazioni statali è da sberle. Da sberle in generale e in particolare: il legislatore è lento e lo stato deve ancora dotarsi di normative specifiche. È un discorso a livello de "in passato, non hanno fatto nulla di male a dare la cocaina ai bimbi o a far usare l'amianto agli operai".
>Anche volendo, cosa c'entra?
Step 1: rileggi >>31992
Step 2: leggi le linee guida europee
Step 3: metti insieme i due testi che hai letto
La domanda giusta da fare sarebbe stata "cosa centrano le linee guida europee nel discorso?". Visto che le ignori e vuoi continuare a ignorarle, ti faccio fare un po' di fatica.
>Che c'entra la compensazione del rumore avversariale su un prodotto che è venduto così come è?
Esempio semplice (e un po' fantasioso, per non entrare in discorsi più complessi tipo frodi fiscali, abuso di potere o quant'altro): una macchina a guida automatica scambia una banana sul manto stradale per un infante e sbanda. Diverse possibilità:
-è un errore inevitabile, insito nella componente probabilistica dell'AI
-è un errore del training set, evitabile in fase di sviluppo
-è un attacco avversariale
La magistratura si dovrebbe muovere diversamente nei tre casi, perché comprendere le cause dei fatti è fondamentale (esempio umano: una cosa è avere un colpo di sonno e investire tre persone in un mercato, un'altra è avere intenti terroristici - "stesso" fatto, reati diversi). È possibile distinguere questi tre casi? No, nella maggioranza dei casi interessanti.

 No.32009

Me ne occupo per mestiere in area medica. La questione è semplice:
Un algoritmo che ha ragione il 99.9% delle volte è un algoritmo con i controcoglioni.
Un algoritmo che ha ragione il 99.9% delle volte applicato a tutti quelli che passano per fiumicino in un anno farà circa 30000 errori.
Sono strumenti fichissimi ma vanno capiti.

Le linee guida FDA in ambito medico sono roba ragionevole e funzionano così:
Devi testare il sistema nel suo contesto, nel senso di sistema + operatore + infrastruttura. Cosí la scatola magica del trovare aneurismi o tumorini la valuti in quanto tale, ma anche a valle dello scanner a cui é agganciata, del lavoro dei tecnici di radiologia, del radiologo stesso, e di cosa fai di questo risultato. La performance totale è quello che ti dice se sia preferibile alle alternative. Allo stesso modo va valutato sistema giudiziaro + magistrato + poliziotto + face recognition. E la cosa bella è che in questo caso puoi davvero limitare le conseguenze degli errori, ma il punto è avere una visione in termini di sistemi e processi, addestrare gli operatori, e rendere ben chiaro cosa vogliano dire i risultati.

>>31992
>Quando parti di interpretabilità, l'ingegnere (tanto in accademia quanto in azienda) risponde "sticazzi, funziona al 97%".
Non è vero per un cazzo, e:
1. L'interpretabilità non ti risolve il problema, interpretabilità vuol dire in genere "ho deciso che sono persone diverse guardando questi posti nella foto :)". Ora cosa te ne fai? A volte aiuta, spesso no.
2. Puoi interpretare la capacità altrui di riconoscere le facce?
3. C'è tanta ricerca al riguardo tanto che è una delle paroline chiave che fanno gola nei bandi

È un ambito di ricerca importante ma non risolve il problema.

 No.32011 SALVIA!

>>32005
Sempre a mescolare tutto.
Sempre salti mortali mentali di palo in frasca.
Sempre ad utilizzare un linguaggio poco chiaro e baitoso. Nel caso di non malafede, non siamo tutti nella tua testa e non puoi incazzarti con noi se metti dei riferimenti che nessuno capisce.
>Inb4 se ti impegni lo puoi capire e le responsabilità è tutta.
No, le responsabilità è di chi esprime il messaggio.
Detto questo, S+H perché ti sei è riconosciuto subito e io non sarò complice del rimestamento della merda.

 No.32012 SALVIA!

>>32011
Perdonate il testo merdoso, sono da furbofono e chi ho quotato non ritengo si meriti il mio tempo.

 No.32013

>>32011
>Sempre ad utilizzare un linguaggio poco chiaro e baitoso.
Ma quindi lo ammetti che sei un autistico di merda che non capisce mai un cazzo. Dimmi dove son stato poco chiaro: perché altrimenti continui a far la figura da itagliano medio che crede di poter parlar di tutto e tutti senza informarsi. Campanellino, non ti incazzare, ma lui continua così da fine giugno.
>>32009
>Non è vero per un cazzo
Me ne occupo per mestiere in ambito matematico puro, con applicazioni sui social. Avrai avuto più fortuna nel tuo campo, ma…
1. Non esistono solo i layer di deconv e appena ti metti a parlare di TDA o Mapper™ (o strumenti appena un po' più esotici dell'algebra lineare) l'ingegnere medio comincia a fottesegare. E senza parlare di altri discorsi fondazionali, tipo il learning rate ottimale, con articoli che lo legano, sperimentalmente E tramite dimostrazioni alla lunghezza del training set (_o al suo quadrato_). La letteratura è tutto un cacciavitare a destra e a manca e bisogna ammettere sia poco seria.
2. Bisognerà farlo se si vogliono seguire le linee guida europee in un futuro.
3. Non sai quanta fatica per ricevere il soldino.

 No.32014

>>32013
>Non esistono solo i layer di deconv
Pensavo più a cose come DeepSHAP, ma alla fine qualsiasi spegazione tu possa trovare non eliminerà davvero cose banali come "hai dei falsi positivi zio". Sicuramente poter stimare il grado di incertezza del modello aiuta moltissimo ed è alla base di meccanismi come i rule-out, ma in generale non vanno trattati come scatole magiche e gli operatori devono avere ben chiaro il fatto che non lo siano. Non possono usare il boomeristico "eh, lo ha detto iccompiute!". Puoi solo sperare che una volta inserito il meccanismo nel sistema in cui deve operare questo effettivamente faccia meglio.

>La letteratura è tutto un cacciavitare a destra e a manca e bisogna ammettere sia poco seria

Non è poco seria, è che non siamo al corrente di un metodo rigoroso di fare queste cose. Molti risultati funzionano in alcuni casi e non in altri. È un campo giovanissimo, ci vorrà tempo prima che smetta di essere divertente e diventi qualcosa di ben prevedibile. Non puoi paragonarlo a cose come la fisica che non ha cambiato niente di grosso in 70 anni.

>articoli che lo legano, sperimentalmente E tramite dimostrazioni alla lunghezza del training set (_o al suo quadrato_)

Il solo fatto che "magari è lineare, oppure quadratico" vuol dire che tutto sommato non è che si sappia davvero come funzioni questa cosa. Non puoi prendertela per il fatto che non sbavino dietro un risultato del genere, specialmente quando devi aggiungere "il quadrato di cosa?" e ricordarti che il learning rate ideale dipende anche dal problema che hai. Non è sbagliato l'approccio ingegneristico del metterlo sul campo e vedere come va, ma devi sapere che lo stai mettendo sul campo anche per vedere come va ed agire di conseguenza.

>Bisognerà farlo se si vogliono seguire le linee guida europee in un futuro.

Sì, ma c'è da vedere cosa nella pratica verrà considerato "spiegare" ai fini del rispettare le linee guida dei burocrati del caso.

Comunque fico mapper, mi piacerebbe avere prima o dopo il tempo di guardarmelo.



[Torna in cima] [Catalogo] [Torna][Invia una Risposta]
Elimina post [ ]
[ home ] [ indice ] [ b / s / hd / 420 ] [ v / aff / cul / pol / ck ]