致:

各国领导人、联合国秘书长、顶级科学家与学者、知名企业家、知名媒体负责人。

尊敬的各位领袖:

我再次提笔,发出这一迄今为止的第九封公开信,在深感遗憾的同时,仍然带有一丝希望。我研究并呼吁科学技术的非理性发展会很快灭绝人类的问题已经长达四十四年之久,从第一次致信人类领袖,至今也已超过十六年的时间。但是,看着这个世界仍然在原地踏步,我深感痛心。

当今世界,科技飞速发展,匪夷所思的新发明每天都在诞生。然而,正如我多次在以前的公开信中所提到的,科学技术发展到今天的高度,已经有了摧毁我们人类的潜力。我们必须尽快采取措施,否则会为时已晚。

许多科学家也已对此表达了深深的忧虑。继千位科学家联名发表公开信,呼吁暂停高层级AI实验后,最近,超过350名顶级人工智能专家又联名发表了公开信,要求降低人工智能带来的灭绝风险,并将此问题与大流行病、核战争等其他大规模风险一同考虑。

这一警告并非空穴来风,科技的力量已经有可能超出我们的控制范围,甚至可能会导致我们的自我灭绝。

尽管我已经多次发出警告,提出解决方案,但是很遗憾,我们的领袖们对此并未采取任何实质性的行动。我想强调的是,没有什么问题比人类即将被科技灭绝的问题更重要。

因此,我在这里再次提出我的建议:实现人类的大统一,用世界政权的力量掌控科学技术,整体降低科学技术的层级。我们不能把人类置于悬崖边缘,我们需要给人类足够的刹车距离。现在是时候让我们的人类领袖清醒,开始行动了。

我知道,要实现这个建议有相当的难度。然而,人类的整体生存高于一切,在面临人类自身可能被毁灭的情况下,我们别无选择。全球的科技风险必须由全球的努力来对抗。

我们的人类领袖需要站在更高的角度去审视和理解这个问题。科学技术的发展并非无止境,而是需要在人类理性的底线和限度内进行。我们不能允许无尽的科技进步以牺牲我们的生存为代价。人类历史已经证明,无尽的进步并不总是带来好的结果,相反,它可能会导致我们的毁灭。我们必须以更全面的视角来看待科技进步,了解其好处,但同时也不能忽视它可能带来的风险和威胁。

作为地球上的主宰者,我们有责任、也有义务去保护我们的家园和我们的未来。这不仅仅是为了我们现在的人类,也是为了我们的子孙后代。我们必须明确我们的优先事项,那就是保护人类的生存和延续。

为此,我呼吁所有的人类领袖放下争议,共同面对这一世界性的问题。我希望我们的领袖们能真正地认识到这个问题的严重性,并采取相应的行动。我再次呼吁你们,用你们的智慧和勇气,做出正确的决定,采取必要的行动。人类的生存、幸福和发展取决于你们的选择。

最后,我要说的是,没有什么问题比人类即将被科技灭绝的问题更重要。我们的领袖们,是时候醒醒了,是时候开始行动了。我衷心希望,你们能听到我的呼声,能为人类的未来,做出正确和负责任的选择。

拜托,我们的人类领袖,能不能有一点危机感?!

此致,敬礼。

拯救人类行动组织创始人

胡家奇

2023年6月20日

文章采集于互联网