Comments 11
Суцкевер подчеркнул, что SSI намерена делать что-то принципиально новое, что позволит компании достичь «чего-то особенного».
У меня был какой то план и я его придерживался
Непонятно, что значит Safe Superintelligence. Оно не убьёт всех человеков, когда его включат. Или согласно первому закону робототехники не будет генерировать голых женщин, расистские тексты и материться при детях?
Слишком много вопросов. Если вы инвестор, суйте деньги вон в ту щель в полу.
На три последних варианта, я пожалуй выделю 1.000.000.000$ 😁👍
Суцкевер хочет сделать такой алгоритм, который позволит менее развитому интеллекту (человеческому) контролировать более развитый (искусственный). На сегодняшний день это открытая математическая проблема. Кстати говоря, может так случиться, что в процессе работы над таким алгоритмом будет неопровержимо доказано, что такой алгоритм неосуществим. Вот это будет интересный поворот...
В серверной будут два сверхразума с ведром воды.
Блин, как Муртазин так эксперт в третьем поколении с регалиями, а как Илья Суцкевер который по сути Топ в разработке ИИ и на самом деле эксперт - так бывший сотрудник...
Скорее всего, основываясь на опыте OpenAI он решил доработать схему добавив туда защиту от убийства всех кожаных(утрирую, конечно)... Либо это тот самый код, который не приняли в OpenAI и который он ушел делать самостоятельно, раз уж прошлый работодатель такой тугой... Я надеялся, что он примкнет к Маску, но так тоже неплохо, конкуренция это хорошо....
SSI намерена делать что-то принципиально новое, что позволит компании достичь «чего-то особенного».
Весьма подробная и вразумительная информация.
Заголовок топ. Это как если бы в 1985 писали Бывший сотрудник Apple привлек $20 млн на создание «персональной рабочей станции».
Каким образом гражданин разработчик намерен гарантировать безопасность этого, якобы ,ИИ (который не Интеллект вовсе, а продвинутый программный продукт)? Мамой клянусь?
Бывший сотрудник OpenAI привлек $1 млрд на создание «безопасного сверхинтеллекта»