Binance Square
LIVE
LIVE
SingularityNET
--606 views
Xem bản gốc
CTO của @CogitoFi, Norton Wang, đã tham gia Arcanum Ventures để có một cuộc trò chuyện sâu sắc về lịch sử của Cogito, quản trị #CGV, ra mắt TFUND, các quy định và tuân thủ, v.v. Xem bây giờ:

CTO của @CogitoFi, Norton Wang, đã tham gia Arcanum Ventures để có một cuộc trò chuyện sâu sắc về lịch sử của Cogito, quản trị #CGV, ra mắt TFUND, các quy định và tuân thủ, v.v. Xem bây giờ:

Tuyên bố miễn trừ trách nhiệm: Bao gồm cả quan điểm của bên thứ ba. Đây không phải lời khuyên tài chính. Có thể bao gồm nội dung được tài trợ. Xem Điều khoản & Điều kiện.
0
Tìm hiểu tin tức mới nhất về tiền mã hóa
⚡️ Hãy tham gia những cuộc thảo luận mới nhất về tiền mã hóa
💬 Tương tác với những nhà sáng tạo mà bạn yêu thích
👍 Thưởng thức nội dung mà bạn quan tâm
Email / Số điện thoại
Nhà sáng tạo có liên quan
LIVE
@singularitynet

Khám phá thêm từ Nhà sáng tạo nội dung

--
Join us this Tuesday, May 7th, 2024, at 5 pm UTC for the first session of a special two-part SingularityNET's Technical Tuesdays mini-series dedicated to the latest advancements in the development of a unified experiential learning component for OpenCog Hyperon, our framework for #AGI at the human level and beyond. Session 1 - The implementation of NARS (Non-Axiomatic Reasoning System) in OpenCog Hyperon’s MeTTa language cognitive computations; - Integrating the AIRIS (Autonomous Intelligent Reinforcement Interpreted Symbolism) causality-based learning AI into Hyperon. Session 2 - Recreating experiential learning in Hyperon using ROCCA (Rational OpenCog Controlled Agent); - Porting fundamental components ROCCA requires from OpenCog classic to Hyperon, including forward and backward chaining, PLN (Probabilistic Logic Networks), and pattern mining. These advancements are part of our ongoing initiative to consolidate the strengths of several systems —ROCCA, NARS, OpenPsi, and AIRIS— to create a unified experiential learning component for Hyperon. This approach will allow AI models to: - Develop a goal-independent understanding of their environment through causal knowledge gained from planned and spontaneous interactions; - Explore their environment with increased efficiency using a curiosity model that prioritizes situations with high uncertainty, challenging their existing causal knowledge. Our preliminary findings indicate that this approach surpasses common Reinforcement Learning techniques in terms of data efficiency by orders of magnitude. To learn more, set your reminder for the livestream now on your preferred platform: - YouTube: https://youtube.com/live/P5VTM3dcn6A - LinkedIn: https://www.linkedin.com/events/beyondreinforcementlearning-how7192236486073757696/theater/ - X: @SingularityNET
--

Bài viết thịnh hành

Xem thêm
Sơ đồ trang web
Cookie Preferences
Điều khoản & Điều kiện