Lignes de fuite

Qui a déclaré : "L'intelligence artificielle conduira probablement à la fin du monde, mais en attendant elle va permettre de grands progrès" ?

A

Aurélien Barrau, Astrophysicien

A

Aurélien Barrau, Astrophysicien

B

Sam Altman, fondateur d'Open AI

B

Sam Altman, fondateur d'Open AI

C

Stephen Hawking, Physicien et Cosmologiste

C

Stephen Hawking, Physicien et Cosmologiste

D

Xavier Niel, PDG de Free

D

Xavier Niel, PDG de Free

E

E

F

F

Développez vos connaissances avec Polaris.
Retrouvez ici tous nos quiz apprenants en accès libre.

Citations sur l'IA

A l’occasion d'une audition devant le Congrès américain, Sam Altman a déclaré qu'il était urgent de réglementer la technologie. « Ma pire crainte est que nous - l'industrie - causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu'une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants », a déclaré Altman.

Ce n'est pas la première fois qu'Altman affirme être effrayé par les potentiels de l'IA, mais OpenAI et lui s'emploient toujours à développer des systèmes d'IA plus puissants.

Ce paradoxe s’étend aux autres entrepreneurs de l’IA dont les déclarations nous laissent circonspects. Tout autant enthousiastes au sujet de leurs créations (“AI will affect every product and every service that we have.” – Tim Cook, the CEO of Apple // “Artificial intelligence will have a more profound impact on humanity than fire, electricity and the internet.” – Sundar Pichai, the CEO of Alphabet) qu’inquiets des répercussions potentielles (“Mark my words… AI (artificial intelligence) is far more dangerous than nukes.” – Elon Musk).

Alors, inventeurs de génie, docteurs Frankenstein dépassés par leurs inventions ou simplement manipulateurs faussement concernés par les dérives possibles ?