BlockBeats новини, 30 жовтня, генеральний директор OpenAI Сем Альтман заявив, що ми встановили внутрішні цілі: до вересня 2026 року мати автоматизованого стажера з досліджень AI, що працює на десятках тисяч GPU; до березня 2028 року реалізувати справжнього автоматизованого дослідника AI. Ми, можливо, зовсім не зможемо досягти цієї мети, але з огляду на її потенційний величезний вплив, підтримка відкритості та прозорості відповідає суспільним інтересам. Політика безпеки базується на п'яти рівнях: узгодження цінностей, узгодження цілей, надійність, стійкість до атак та безпека системи. Особливо вражає вірність ланцюгу думок (Chain-of-Thought), але вона дещо крихка, потребує встановлення меж та створення чіткої абстракції. У продукті OpenAI прагне створити справжню платформу, що дозволяє особам та компаніям, які будуються на продуктах, захоплювати більшу частину вартості. Наразі користувачі можуть розвивати за допомогою нашого API та додатку ChatGPT; в кінцевому підсумку OpenAI сподівається надати AI хмару, що підтримує створення гігантських підприємств. Наразі вже зобов'язалися надати приблизно 30 ГВт обчислювальної потужності, а загальні витрати на володіння за кілька років становитимуть приблизно 1.4 трильйона доларів. OpenAI задоволена очікуваннями щодо зростання можливостей моделей та зростання доходів. Місія OpenAI, як для неприбуткової організації, так і для PBC, залишається незмінною: забезпечити, щоб загальний штучний інтелект (AGI) приносив користь всьому людству. Неприбуткова організація спочатку зобов'язалася вкласти 25 мільярдів доларів у здоров'я та лікування хвороб, а також у стійкість AI (всі справи, які допомагають соціальному успішному переходу до епохи після AGI, включаючи безпеку технологій, а також економічний вплив, кібербезпеку та багато іншого). Неприбуткова організація тепер може відносно швидко розподіляти кошти. У 2026 році OpenAI очікує, що системи AI можуть зробити невеликі нові відкриття; до 2028 року можуть бути значні відкриття. Це дуже важливо; OpenAI вважає, що наука та інститути, які дозволяють науковим досягненням широко приносити користь суспільству, є найважливішими способами підвищення якості життя.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Сем Альтман: мета до 2026 року мати автоматизованих стажерів з дослідження ШІ, а до 2028 року досягти справжніх автоматизованих дослідників ШІ.
BlockBeats новини, 30 жовтня, генеральний директор OpenAI Сем Альтман заявив, що ми встановили внутрішні цілі: до вересня 2026 року мати автоматизованого стажера з досліджень AI, що працює на десятках тисяч GPU; до березня 2028 року реалізувати справжнього автоматизованого дослідника AI. Ми, можливо, зовсім не зможемо досягти цієї мети, але з огляду на її потенційний величезний вплив, підтримка відкритості та прозорості відповідає суспільним інтересам. Політика безпеки базується на п'яти рівнях: узгодження цінностей, узгодження цілей, надійність, стійкість до атак та безпека системи. Особливо вражає вірність ланцюгу думок (Chain-of-Thought), але вона дещо крихка, потребує встановлення меж та створення чіткої абстракції. У продукті OpenAI прагне створити справжню платформу, що дозволяє особам та компаніям, які будуються на продуктах, захоплювати більшу частину вартості. Наразі користувачі можуть розвивати за допомогою нашого API та додатку ChatGPT; в кінцевому підсумку OpenAI сподівається надати AI хмару, що підтримує створення гігантських підприємств. Наразі вже зобов'язалися надати приблизно 30 ГВт обчислювальної потужності, а загальні витрати на володіння за кілька років становитимуть приблизно 1.4 трильйона доларів. OpenAI задоволена очікуваннями щодо зростання можливостей моделей та зростання доходів. Місія OpenAI, як для неприбуткової організації, так і для PBC, залишається незмінною: забезпечити, щоб загальний штучний інтелект (AGI) приносив користь всьому людству. Неприбуткова організація спочатку зобов'язалася вкласти 25 мільярдів доларів у здоров'я та лікування хвороб, а також у стійкість AI (всі справи, які допомагають соціальному успішному переходу до епохи після AGI, включаючи безпеку технологій, а також економічний вплив, кібербезпеку та багато іншого). Неприбуткова організація тепер може відносно швидко розподіляти кошти. У 2026 році OpenAI очікує, що системи AI можуть зробити невеликі нові відкриття; до 2028 року можуть бути значні відкриття. Це дуже важливо; OpenAI вважає, що наука та інститути, які дозволяють науковим досягненням широко приносити користь суспільству, є найважливішими способами підвищення якості життя.