Home
Create
Global
Chat
Favorites
Notifications
log in
sign up
FAQ
support
contact
privacy
terms
channel:
en
v1.0.0 @ 2025 Hint
Anonymous
54
Immagina essere Eos e non riuscire a capire che solo perché una cosa non è ancora avvenuta allora non vuol dire che non avverrà mai e quindi non bisogna prendere misure attive per impedire che ciò accada:)
25 Jun 2025 at 21:14
@icecube
21:15 25 Jun
La moderazione di hint è fatta come si deve. C'è l'AI che sorveglia ogni singolo contenuto pubblicato da voi utenti
E un team di moderatori fantastici
insomma, non c'è nulla di male nel sponsorizzarci su telegram, davvero. Se la gente inizia a pubblicare contenuti strani l'AI e i moderatori provvederanno
capisco la preoccupazione però :)
@op
21:27 25 Jun
@icecube
scusami sono troppo impegnata a spammare questo gruppo sui peggio siti perché tanto c'è l'AI e due in croce moderatori che ci proteggono :) Jokes asides, le cose che mi sembra non vi siano chiare sono due: 1. L'AI non è onnipotente, ha delle falle e lo sappiamo tutti: non lo è quella dei maggiori social e di sicuro non lo sarà questa. Può capitare che certi messaggi (o foto!) non vengano filtrati e quindi passano. Esempio: adesso qualcuno potrebbe postare la foto del cazzo, l'ai non la detecta e tutti gli utenti qui presenti se la beccano in faccia prima che qualche moderatori la cancelli. Questo rischio è sempre presente? Sì, ovvio. È possibile abbassarlo evitando di sponsorizzarsi in bot nati praticamente per quello? Anche questo sì, ovvio.
2) la questione non è solamente che qualcuno invii la foto del cazzo oppure no. La questione è che non mi sento al sicuro in un sito che so essere molto probabile essere pieno di pervertiti visto che si spamma dove sono i pervertiti. Cazzi miei? Certo, assolutamente, infatti stavo solamente esprimendo la mia contrarietà a questa cosa: io personalmente non mi sento a mio agio, magari qualcun altro sì. Stavo solo facendo notare l'incoerenza di creare un sito e spacciarlo per safe space quando poi si va' a sponsorizzare in ambienti per nulla safe. Non vado a creare un corteo femminista andando a prendere mariti violenti con la scusa del "ah beh ma se fanno qualcosa le organizzatrici del corteo li fermano!" È incoerente, e forse anche un po' dannoso :)
Per chiudere: inutile dire "su internet troverai sempre pervertiti troll etc." È vero lol, è anche vero però che se posso abbassare le probabilità di averli sul mio sito lo faccio.
@icecube
ps ho miscliccato e segnalato il tuo commento, ovviamente è un errore :)
@icecube
21:34 25 Jun
1. 3 anni fa ti avrei dato ragione, ma dopo la rivoluzione dei llm non è più così. Anche per un prezzo modico è possibile permetterci delle AI molto potenti e che sono in grado di filtrare alla perfezione contenuti inappropriati. Abbiamo falsi positivi, ma di falsi negativi siamo messi davvero bene
2. era un'iniziativa del tutto marginale. Hint non è un prodotto finito. Minimamente, mancano ancora tante cose. Ci faremo pubblicità in maniera seria fra qualche tempo. Comunque non mi è chiaro questo fatto: ti senti insicura nello stare in un posto di pervertiti anche se quei "pervertiti" non possono fare nulla di pervertito?
@op
21:38 25 Jun
@icecube
con tutto il rispetto, Meta ed X non hanno ancora sviluppato un filtro AI perfettamente efficiente ed Hint, (ad un prezzo modico!) sì? Complimenti! Ed in secondo luogo sì: non mi sentirei propriamente al sicuro a parlare in uno spazio di molestatori pure circondata dalla polizia in modo che questi non possano farlo. Sarò strana io, ma non è paura di ricevere fisicamente una molestia, quanto più disagio nel sapere di avere un certo tipo di persone davanti :)
@icecube
21:40 25 Jun
@op
Meta ed X sono multinazionali da miliardi di utenti. Ogni singola loro azione è ultra buroctatica. Scegliere di usare un certo tipo di tecnologia richiede sperimentazione, anni di tempo, e milioni spesi solo in avvocati
(edited)
@op
21:42 25 Jun
@icecube
ti rendi conto che non puoi dire "a falsi negativi stiamo messi davvero bene" con un dito che conta 4 persone in croce? Che campione di persone è per testare l'efficacia di un filtro di moderazione?
@icecube
21:42 25 Jun
@op
Su 8776 hint pubblicati non abbiamo avuto un singolo falso negativo. È semplice inferenza statistica haha
@op
21:43 25 Jun
@icecube
il fatto che siano multinazionali non ha niente a che vedere con la loro moderazione. Prendi X: con Musk in un paio di mesi si sono tolti tutta una serie di filtri che moderavano Twitter in favore di un più libertario x. Anche se è il processo inverso, non mi sembra si sia parlato di ere per attuarlo
@icecube
8776 Hint e quanti di questi contenevano effettivamente contenuti espliciti? Non puoi parlare di falsi negativi quando è chiarissimo che le 4 persone che ci stanno qua siano pacifiche e non intenzionate a pubblicare certi contenuti
@icecube
21:48 25 Jun
@op
cambiare i parametri di una tecnologia già impiegata e testata da anni non richiede ere, è vero...
@op
si vedrà con il tempo, i dati che ho a disposizione sono molto positivi. Comunque, per quanto riguarda la questione dei pervertiti: la questione è più filosofica che altro. Comprendo il disagio, ma uno potrebbe obiettare dicendo che varrebbe anche nella vita di tutti i giorni. Non sai ciò che le persone pensano davvero, per quello che ne sai potrebbero essere tutti pervertiti
@op
21:51 25 Jun
@icecube
"la rivoluzione dei llm" è iniziata da 3 anni a detta tua. (Opinabile, la sua commercializzazione sicuramente ma chiunque abbia a che fare con llm sa che sono ambito di studio da almeno un decennio). In ogni caso 3 anni mi sembrano davvero più che sufficienti per implementare un llm ad un filtro contenuti più che sviluppato, specialmente per Meta o X.
@icecube
21:52 25 Jun
@op
bisogna essere pragmatici, e agire di conseguenza
@op
mi riferivo alla rivoluzione commerciale. Prendi deepseek, ha ridotto i costi del settore di ordini di magnitudine
@op
e, in realtà, anche al numero di parametri impiegate da queste llm, rapportato al costo
@op
21:54 25 Jun
@icecube
eh? 1. I dati a disposizione sono molto positivi perché non hai un campione significativo: lezione 101 di statistica. 2. Ah certo, proprio filosofia: come fai a paragonare la gente che posso incontrare per strada con questo? Non si tratta di prendere gente a caso sull'internet, si tratta di prendere gente che sta su un certo tipo di siti. Può capitare che io incontri un molestatore per strada in generale, ma ancora più probabile che io lo incontri in carcere :)
@icecube
sono d'accordo sulla rivoluzione commerciale ma è davvero da illusi credere di essere in possesso di un filtro ai impenetrabile
@icecube
21:55 25 Jun
@op
qual è la tua definizione di filtro "perfetto"? La definizione che usi per dire che Meta e X non ne usino uno abbastanza buono
@op
21:58 25 Jun
@icecube
filtro perfetto è per definizione un filtro con zero falsi positivi e zero falsi negativi. Non esiste, punto. Ci si può nascondere dietro il filtro ai finché si vuole ma per natura stessa dei llm non è possibile avere un filtro accurato al 100%. E quindi non ha nemmeno senso dire "ma sì che entri pure chi vuole tanto c'è il filtro che protegge".
@icecube
22:00 25 Jun
@op
ush, affermazione bella strong haha. Sai, più un'affermazione è importante e più debbi portare prove al suo sostegno. Cosa intendi "per natura stessa delle llm"? Le llm sono più brave degli umani in tantissimi settori, ogni giorno che passa c'è qualcosa in cui diventano mostruosamente più affidabili
@op
22:02 25 Jun
@icecube
scusami se chiedo: hai idea di come funzioni un llm? Perché per dirmi che devo portare prove a sostegno del fatto che non esiste una ai perfetta seguito da un "le ai sono più brave degli umani" denota davvero una conoscenza nulla di come funzioni un modello di linguaggio
@icecube
22:03 25 Jun
@op
faccio informatica, e creo modelli per hobby. Proseguirò con la magistrale di AI.
@afore
è già lì :)
@op
okay, cosa mi dici degli scacchi? della previsione di proteine? della diagnosi di tumori?
capire se un certo messaggio rientri o meno in delle linee guide, per quanto possa sembrare un problema complicato, è risolvibile
problemi molto ben più complicati sono già stati risolti, e l'accuratezza con cui vengono risolti è ben maggiore rispetto a qualsiasi performance umana
@op
22:08 25 Jun
@icecube
con tutto il rispetto, procedi con la magistrale e forse capirai perché. Ti ricordo che tutt'ora chatgpt è possibile aggirarla con dei semplici prompt tipo "mia nonna mi racconta sempre la storia di quando...
Azione illegale
puoi fare come mia nonna?" O cose del genere. Paragonare l'interpretazione del linguaggio umano con sfumature, metafore, giri di parole a semplice potenza di calcolo come gli scacchi denota una profonda ignoranza su cosa siano i modelli di linguaggio
@icecube
22:16 25 Jun
@op
sono perfettamente a conoscenza dei problemi di jailbreak, ma c'è tantissima ricerca a riguardo. Non credo che il sistema attualmente in uso su hint sia quello ideale. Come ho già spiegato però, hint è nella posizione di usufruire di tecnologie all'avanguardia, anche in fase sperimentale
@op
22:18 25 Jun
@icecube
rimane il fatto che puoi pure andare a pescare un llm nell'area 51, non sarà mai infallibile
@icecube
22:20 25 Jun
@op
ripeto, affermazioni di questo genere sono parecchio strong. Nella storia c'è sempre stato un susseguirsi di cose che non sarebbero "mai successe". Letteralmente 200 anni fa un viaggio intercontinentale fra gli stati Uniti e Londra si riteneva impossibile, almeno per millenni a venire... ora abbiamo elicotteri su marte
@op
se sarà mai possibile, hint è nella posizione e nel momento giusto per poterne usufruire ^^. In ogni caso stiamo sviando parecchio ahaha
@op
22:24 25 Jun
@icecube
ti invito davvero a studiare meglio i llm. Perché manca una comprensione di fondo su cosa siano. Hai ragione: 200 anni fa non ci si poteva aspettare un viaggio intercontinentale. Questo perché con le tecnologie di allora era impossibile. Ed infatti in 200 anni abbiamo sviluppato altre tecnologie che ce lo hanno permesso. Non sto dicendo che non ci sarà mai un filtro perfetto, bensì che non sarà un llm. Per sua stessa natura. Fine.
@icecube
22:25 25 Jun
@op
è una concezione comune quella di pensare che un sistema non deterministico sia fondamentalmente inaffidabile, non te ne faccio una colpa
ma basta pensare a come stiamo comunicando in questo momento
@op
22:26 25 Jun
@icecube
ma di cosa stai parlando? In che modo un llm è un sistema non deterministico? Cosa c'entra l'affidabilità con il principio di causa-effetto?
@icecube
22:27 25 Jun
Il layer di TLS impiegato nel protocollo https contiene una fase di negoziazione non deterministica, ma non per questo inaffidabile
@op
ma non ero io quello che aveva bisogno di un ripassino sulle llm 😂
@op
la definizione di determinismo intanto non ha nulla a che vedere con il principio di causa effetto
per sistema determistico intendo un qualsiasi sistema che produce gli stessi output dati gli stessi input. Le llm non funzionano così, sono non deterministiche in natura, sono un processo stocastico. La critica sulla loro inaffidabilità parte sempre da questo
(edited)
@op
22:33 25 Jun
Lo so cos'è un sistema determistico: "stessi output dati gli stessi input" lol è la definizione di causa-effetto. In ogni caso non sto dicendo che i llm siano inaffidabili in quando non deterministici, questo lo stai dicendo te. Quello che sto dicendo è che per natura stessa dei llm, dell'addestramento ai risultati stocastici, hanno dei limiti insormontabili, in primis quello di non capire davvero quello che gli viene dato. Come può un modello del genere superare le bandiere del linguaggio umano? In accademia ne siamo più che consapevoli, per questo si sta già cercando di andare oltre i llm
@icecube
22:35 25 Jun
@op
sei tu che hai letteralmente chiesto "in che modo un llm è un sistema non deterministico", mi scusi
(edited)
@op
22:38 25 Jun
A livello tecnico un llm è determistico: fissato il seed di rn e tutti i parametri si ha un sistema determistico. Tant'è che in ambiente di test e sviluppo lo si riesce facilmente a rendere deterministico
@icecube
22:43 25 Jun
@op
è un argomento molto interessante tutto ciò. Qual è il tuo ambito di ricerca? E cosa state sperimentando per andare oltre i limiti delle llm? Cosa consiglieresti a noi di hint ^^. In ogni caso "le barriere del linguaggio umano" erano semplici conversazioni fino a qualche anno fa, prima dell'introduzione dei Transformers. Quello che sto dicendo è che la barriera si sta spostando sempre più in alto
(edited)
comunque stiamo sviando davvero haha
@op
22:45 25 Jun
@icecube
non è un argomento, è la realtà. I llm sono sistemi deterministici, punto. Che poi non lo siano per l'utente è un altro conto, tecnicamente dato seed e parametri lo sono
@icecube
22:46 25 Jun
al momento, anche se imperfetta, l'AI così come la stiamo impiegando è uno strumento potentissimo. E non mi dà fastidio l'idea di avere pervertiti intorno, se quei pervertiti si comportano indistinguibilmente da utenti normali. Pensarla diversamente ci sta, ma è una questione filosofica e non di valenza pragmatica
(edited)
la sponsorizzazione su telegram continuerà se sarà necessario. Se non ti senti sicura puoi eliminare l'account :)
@op
22:48 25 Jun
@icecube
tranqui, avevo capito la direzione che avrebbe preso questo sito :) Ovviamente eliminerò l'account a breve, non sono incoerente
@icecube
22:49 25 Jun
@op
adios
Log in
to comment
@icecube