У програмній заяві засновники центру стверджують: “Багато вчених стурбовані тим, що в результаті розвитку людських технологій скоро виникнуть нові ризики, що ставлять під питання існування нашого виду в цілому”. У якості подібних небезпек в центрі виділяють штучний інтелект, кліматичні зміни, біотехнології та нанотехнології.
Глава створюваного центру професор філософії Х’ю Прайс опублікував у серпні 2012 року статтю “ШІ: чи зможемо ми втримати його в коробці?”, В якій закликав серйозно розглянути можливі загрози: “Ми думаємо, що в якості першого правильного кроку варто було б припинити ставитися до штучного інтелекту як до предмету наукової фантастики і почати думати про нього як про частину реальності, з якою ми або наші нащадки можуть рано чи пізно зіткнутися “. Філософ вважає, що як тільки ми поставимо таку проблему, то буде необхідно ініціювати серйозні дослідження того, як зробити розробку інтелектуальних машин найбільш безпечною з точки зору майбутнього людства.
Основною причиною небезпеки «ультра-розумних” машин творці проекту бачать принципову відмінність їх передбачуваного інтелекту від людського. Усі цінності – такі, як «любов, щастя і навіть виживання», важливі для нас, тому що у нас є певна еволюційна історія – немає жодної причини вважати, що машини будуть розділяти їх з нами. За словами Прайса, машини, можливо, будуть просто байдужі до нас, що спричинить за собою катастрофічні наслідки.
Швидке створення інтелектуальних машин, які будуть “розумнішими” за людей, передрікають, починаючи з середини XX століття. Аллен Ньюелл і Герберт Саймон в 50-ті, Марвін Мінський в 60-70-ті, і багато інших в пізніший час передвіщали рішення проблеми розробки ШІ протягом 10-20 років, починаючи з моменту заяви. Один з найбільш відомих на сьогоднішній момент футурологів Рей Курцвейл пророкує, що до 2029 року комп’ютер зможе пройти тест Тьюрінга, що, на його думку, буде доводити у нього наявність розуму. Курцвейл в 2009 році заснував Університет Сингулярності з метою вивчення наслідків “технологічної сингулярності” – моменту, коли швидкість розвитку технологій досягне немислимих значень.
Безумовно, штучний інтелект і гіпотетичні наслідки його виходу з-під контролю людини є однією з улюблених тем сучасної філософії. Однак більшість діючих дослідників у цій галузі на даний момент утримуються від будь-яких гучних прогнозів про можливість серйозних проривів у найближчому майбутньому – проблеми сьогодні швидше полягають не в необхідних потужностях, а у відсутності нових підходів.