До возможной катастрофы, вызванной неконтролируемым ИИ, — 24 минуты. Так оценивает ситуацию Международный институт управленческого развития (IMD) в Швейцарии, разработавший «Часы безопасности искусственного интеллекта» — символический индикатор риска появления неконтролируемого универсального ИИ (Uncontrolled AGI). Он вдохновлён идеей «Часов Судного дня» и служит для привлечения внимания к нарастающим угрозам. На движение стрелок влияют три ключевых фактора: • стремительное развитие технологий, • рост автономности алгоритмов, • их проникновение в критическую инфраструктуру. В этом году стрелки сдвинулись сразу на две минуты вперёд. NeuroTrends
NeuroVesti
До возможной катастрофы, вызванной неконтролируемым ИИ, — 24 минуты.
Так оценивает ситуацию Международный институт управленческого развития (IMD) в Швейцарии, разработавший «Часы безопасности искусственного интеллекта» — символический индикатор риска появления неконтролируемого универсального ИИ (Uncontrolled AGI). Он вдохновлён идеей «Часов Судного дня» и служит для привлечения внимания к нарастающим угрозам.
На движение стрелок влияют три ключевых фактора:
• стремительное развитие технологий,
• рост автономности алгоритмов,
• их проникновение в критическую инфраструктуру.
В этом году стрелки сдвинулись сразу на две минуты вперёд.
NeuroTrends
До возможной катастрофы, вызванной неконтролируемым ИИ, — 24 минуты.
Так оценивает ситуацию Международный институт управленческого развития (IMD) в Швейцарии, разработавший «Часы безопасности искусственного интеллекта» — символический индикатор риска появления неконтролируемого универсального ИИ (Uncontrolled AGI). Он вдохновлён идеей «Часов Судного дня» и служит для привлечения внимания к нарастающим угрозам.
На движение стрелок влияют три ключевых фактора:
• стремительное развитие технологий,
• рост автономности алгоритмов,
• их проникновение в критическую инфраструктуру.
В этом году стрелки сдвинулись сразу на две минуты вперёд.
NeuroTrends
Дата публикации: 16.06.2025 17:00