OpenAI erweitert offenbar seine technische Infrastruktur und nutzt nun auch Tensor Processing Units (TPUs) von Google, wie eine mit der Angelegenheit vertraute Person gegenüber Reuters erklärte. Damit verlässt sich das Unternehmen erstmals nicht mehr ausschließlich auf Nvidia-Chips und die Rechenzentren seines Großinvestors Microsoft.
Der Schritt könnte den TPUs von Google Auftrieb verschaffen – sie gelten als kostengünstigere Alternative zu Nvidias GPUs, die bislang als Quasi-Standard für KI-Anwendungen galten. Bereits zuvor hatte Reuters berichtet, OpenAI plane den Ausbau seiner Kapazitäten über Google Cloud, um dem rapide steigenden Rechenbedarf gerecht zu werden.
Weder Google noch OpenAI äußerten sich bislang offiziell zu den Informationen.
Kommentar hinterlassen