Eseu filosofie , inteligenta artificiala abordata din perspectiva etica

212 0 0
                                    

Inteligenta artificiala este definita de John McCarthy în 1955 drept fiind "o mașină care se comportă într-un mod care ar putea fi considerat inteligent, dacă ar fi vorba de un om". AI, pe scurt, se diferentieaza de alte tehnologii prin faptul ca este capabila sa sustina un proces de invatare. Problemele centrale ale cercetării în AI sunt ratinuea, cunoasterea, planificarea, comunicarea, perceptia precum și manipularea obiectelor fizice. AI aduce dileme etice. Cum putem sa ne asiguram ca aceste masini ganditoare nu vor produce rau oamenilor? Cum putem introduce in aceasta tehnologie caracteristicile definitorii functiilor sociale umane precum responsabilitatea, transparenta, incoruptibilitatea, tendinta de a nu afecta fiinte inocente sau predictabilitatea?In primul rand, vom aborda persepctiva conform careia introducerea AI in viata de zi cu zi nu ar fi etica. O masinarie inteligenta, pastrand definitia din introducere, ar putea ridica probleme la nivelul ocuparii de slujbe - ar putea inlocui oamenii deoarece ar fi la fel de inteligente insa nu ar avea ''dezavantajele'' oamenilor , nevoi fiziologice mai exact, astfel neobosind. Admitem ca la nivel intelectual AI ar fi comparabil cu un om, dar in ce masura ar fi acesta mai indreptatit la un loc de munca fata de un om? La scara mare, ar fi mai avantajos pentru organizatiile internationale insa ar putea duce la foamete si inflatie. Un alt argument in acest sens este cel mai previzibil si anume riscul existential - in ce punct ar trebui limitat AI astfel incat sa nu periclitam umanitatea sau potentialul acesteia? Ce ne poate garanta ca AI nu va incerca sa se reprogrameze si sa incerce sa isi elimine ''concurenta'' sau sa inrobeasca umanitatea? Chiar si considerand ca aceasta varianta ar fi imposibila, luand istoria in considerare, observam ca tendinta generala a umanitatii este abuzul de putere, drept pentru care ar fi etic sa lasam la liber AI cand exista riscul atacurilor militare sau cibernetice? Pe de alta parte, problema riscului existential poate fi intoarsa cu usurinta in spectrul pro-etic deoarece neavand nicio garantie, putem presupune si ca AI va functiona in avantajul umanitatii chiar si in acest caz - mașinile superinteligente ar putea să conserve viața și să ajute specia umană la realizarea deplină a potențialului său. De asemenea, orice suspiciune in privinta AI ar putea fi inlaturata daca aceasta ar respecta legile roboticii enuntate de Isaac Asimov in 1942,. Legea de baza este ''Un robot nu are voie să pricinuiască vreun rău umanității sau să permită prin neintervenție ca umanitatea să fie pusă în pericol.''. Aceasta asigura nu numai faptul ca masinariile inteligente nu ar actiona pe cont propriu in defavoarea oamenilor, ci si faptul ca nu ar lasa oamenii sa actioneze in scopuri negative. Problema aici poate aparea in situatiile ipotetice precum : daca intr-o casa se afla 3 teroristi si 1 ostatic, este etic sa bombardam casa? Este viata unui singur ostatic valoric mai putin relevanta decat eliminarea celor 3 negative? Ce ar considera AI aici, cum isi defineste aceasta masinarie inteligenta sistemul etic? Momentan, neexistand decat asa numitele ''weak AI'' ( inteligență artificială care nu pretinde că poate gândi, putând însă rezolva o anumită clasă de probleme într-un mod mai mult sau mai puțin "inteligent", de exemplu cu ajutorul unui set de reguli), nu putem raspunde la aceasta intrebare.In concluzie, consider ca AI este o problema care din punct de vedere etic nu poate fi elucidata pana cand insasi umanitatea nu poate raspunde la toate problemele etice, pentru a crea un sistem de legi care sa poata fi programate pentru aceasta masinarie, pentru a garanta ca oamenii nu vor fi oprimati de aceste masinarii inteligente, in mod direct sau indirect.

ESEEWhere stories live. Discover now