ChatGPT a încetat, din 29 octombrie, să mai ofere îndrumări specifice legate de tratamente medicale, probleme juridice sau aspecte financiare. Platforma AI este acum, în mod oficial, un „instrument educațional”, nu un consultant, iar noii termeni de utilizare precizează clar acest lucru.

Nu ne puteți folosi serviciile pentru (...) acordarea de sfaturi personalizate care necesită autorizație, cum ar fi sfaturi juridice sau medicale, fără implicarea corespunzătoare a unui profesionist autorizat”, se arată în politicile de utilizare actualizate de OpenAI.

Ce s-a schimbat

Altfel, potrivit NEXTA, ChatGPT nu mai oferă numele medicamentelor și nici doze exacte și nu mai furnizează modele de procese, strategii pentru instanță sau sfaturi de tipul „iată ce trebuie să faci dacă…”

Limitarea discuțiilor cu minorii

În septembrie, compania care a dezvoltat platforma de AI a anunțat limitează discuțiilor cu minorii.

Prioritizăm siguranța înaintea intimității și libertății pentru adolescenți; aceasta este o tehnologie nouă și puternică, iar minorii au nevoie de protecție semnificativă. Trebuie să separăm utilizatorii sub 18 ani de cei care nu sunt, iar ChatGPT va aplica reguli diferite pentru adolescenți, evitând discuțiile flirtuoase sau despre suicid, chiar și în contexte de scriere creativă. Dacă un utilizator sub 18 ani manifestă idei suicidare, vom încerca să contactăm părinții sau, dacă nu este posibil, autoritățile în caz de pericol iminent”, a declarat, la momentul respectiv, Sam Altman, CEO-ul OpenAI. Citește mai multe AICI.