จากเปเปอร์ก่อนตีพิมพ์ที่เผยแพร่ออกมาเมื่อปีที่แล้ว นักวิทยาศาสตร์แห่ง Google Research รวมทั้ง ผู้นำแห่ง Google AI คุณ Jeff Dean ได้อธิบายถึงวิธีการออกแบบชิปด้วยระบบ AI ที่สามารถเรียนรู้จากประสบการณ์ก่อนหน้าและปรับปรุงเรื่อยมา ล่าสุดทีม Google ได้ใช้วิธี reinforcement learning ที่จะสามารถเรียนรู้จากประสบการณ์ของหลายๆ ชิป เพื่อทำให้สามารถสร้างชิปใหม่ๆ ได้ดีขึ้นและเร็วขึ้นกว่าเดิม
การเทรนระบบที่ขับเคลื่อนด้วย AI ที่จะสามารถเข้าใจชิปต่างๆ ได้นั้นเป็นงานที่่ท้าทาย เพราะจะต้องมีการเรียนรู้เพื่อที่จะ optimize ประสิทธิภาพจากการวางชิปที่เป็นไปได้บนพื้นที่ที่มีอยู่ ซึ่งในความจริงแล้ว การจัดวางพื้นที่ของชิปนั้นเป็นเหมือนกับเกมที่มีชิ้นส่วนต่างๆ มาจัดวางบนบอร์ด และการหาเงื่อนไขการชนะ (win conditions) ที่จะเป็นตัวชี้วัดของการออกแบบดังกล่าว
ทีม Google เริ่มต้นด้วยการนำชิปเปล่าๆ มาวางชิ้นส่วนต่างๆ ตามลำดับจนกว่าจะดำเนินการ netlist เสร็จสิ้น และเพื่อไกด์แนวทางให้กับระบบในการเลือกว่าจะเอาส่วนประกอบใดมาวางก่อน ชิ้นส่วนต่างๆ จะถูกนำมาจัดเรียงตามขนาด โดยจะวางชิ้นที่มีขนาดใหญ่กว่าก่อนเพื่อลดโอกาสที่จะไม่มีตำแหน่งวางในภายหลังได้
ทั้งนี้ การเทรนระบบดังกล่าวนี้จะต้องมีการสร้างชุดข้อมูล dataset จากชิป 10,000 แบบ ซึ่งนักวิจัยสร้างขึ้นมาโดยเลือกรายการชิป 5 แบบแรกที่แตกต่างกันออกมาก่อนเพื่อให้อัลกอริทึม AI นำมาประยุกต์ใช้เพื่อสร้างแบบที่แตกต่างกันกว่า 2,000 แบบของแต่ละ netlist ทั้งนี้ ระบบใช้เวลา 48 ชั่วโมงเพื่อทำ pre-train บนการ์ด NVIDIA VOLTA และอีกกว่า 10 CPU โดยแต่ละตัวละมีแรม 2 GB ซึ่งการ fine tune ในช่วงเริ่มต้นใช้เวลาราว 6 ชั่วโมง แต่หลังจากใช้ตัวที่เป็น pre-trained แล้วก็จะสามารถสร้างขึ้นมาได้อย่างรวดเร็วเพียงแค่เสี้ยววินาทีบน GPU เพียงตัวเดียวเท่านั้น
ในการทดสอบครั้งหนึ่ง นักวิจัย Google ได้เปรียบเทียบผลจากระบบของพวกเขากับวิธีการแบบ manual คือการออกแบบในระดับ production ของชิป TPU ตัวรุ่นก่อนหน้านี้ที่สร้างโดยทีมออกแบบ TPU ของ Google เอง ซึ่งทั้งตัวระบบและผู้เชี่ยวชาญที่เป็นมนุษย์นั้นสามารถสร้างการจัดเรียงชิปที่ทำงานได้ตามเวลาและความหนาแน่นที่ต้องการ หากแต่ตัวระบบ AI นั้นจะมีประสิทธิภาพเหนือกว่าหรือเทียบเท่าในเรื่องของการจัดวางพื้นที่ กำลังไฟฟ้า และความยาวสายต่างๆ แต่ใช้เวลาน้อยกว่ามากๆ ในการไปให้ถึงเงื่อนไขการออกแบบดังกล่าว