Altman o sztucznej inteligencji: od zagrożenia dla ludzkości po wpływ modeli językowych na ludzi

Dziesięć lat temu, podczas konferencji Airbnb Open Air 2015, założyciel OpenAI Sam Altman stwierdził, że sztuczna inteligencja „prawdopodobnie doprowadzi do końca świata, ale zanim to nastąpi, powstaną wspaniałe firmy”.
Dodał też, że gdyby był prezydentem USA, przeznaczyłby około 100 miliardów dolarów na badania nad bezpieczeństwem AI.
Jednak ani Barack Obama, ani jego następcy — Donald Trump, Joe Biden, a następnie ponownie Trump — nie wdrożyli takich działań. Sam Altman skoncentrował się natomiast na budowie komercyjnie odnoszącej sukcesy firmy, a OpenAI w ciągu tych dziesięciu lat znacząco wzrosła na wartości.
W tym czasie zmieniła się także retoryka Altmana wobec ryzyk AI. O ile w 2015 roku mówił o „największym zagrożeniu dla istnienia ludzkości”, to w 2025 roku bardziej niepokoją go „nieznane niewiadome”: styl wypowiedzi dużych modeli językowych, ich rytm, nietypowa dykcja czy nadmierne używanie długich pauz, które ludzie zaczęli naśladować.
W ten sposób akcent obaw Altmana przesunął się z globalnego zagrożenia na subtelności zachowań sztucznej inteligencji, podczas gdy OpenAI stała się jedną z wiodących firm w branży.
Wcześniej firmy X i xAI należące do Elona Muska złożyły pozew w sądzie w Teksasie przeciwko OpenAI oraz Apple z powodu ekskluzywnej integracji chatbota ChatGPT z iPhone’em.
ChatGPT wciąż bije kolejne rekordy wśród konsumenckich produktów cyfrowych. Według danych właściciela, OpenAI, już w tym tygodniu liczba aktywnych użytkowników aplikacji może sięgnąć 700 milionów tygodniowo.
