TorchConfig是一个简化PyTorch配置的Python包。

torchconfig的Python项目详细描述


火炬配置

TorchConfig是一个简化Pythorch配置的Python包。在

假设您想要测试多个优化器,以找出哪个优化器最适合您的模型。有一种方法可以实现这一点:

ifCONFIG["optimizer_name"]=="SGD":optimizer=optim.SGD(net.parameters(),lr=CONFIG["optimizer_lr"],momentum=CONFIG["optimizer_momentum"],dampening=CONFIG["optimizer_dampening"],weight_decay=CONFIG["optimizer_weight_decay"],nesterov=CONFIG["optimizer_nesterov"],)...elifCONFIG["optimizer_name"]=="Adam":optimizer=optim.Adam(net.parameters(),lr=CONFIG["optimizer_lr"],betas=CONFIG["optimizer_betas"],eps=CONFIG["optimizer_eps"],weight_decay=CONFIG["optimizer_weight_decay"],amsgrad=CONFIG["optimizer_amsgrad"],)}

使用TorchConfig,这只是一行!在

^{pr2}$

安装

pip install torchconfig

如何使用

您可以通过字典键值对或参数指定任何optimizer或{}的名称。在

optimizer_config={"name":"SGD","lr":0.1}optimizer=torchconfig.get_optimizer_from_args(net.parameters(),name="SGD",lr=0.1)# oroptimizer=torchconfig.get_optimizer_from_args(net.parameters(),**optimizer_config)# oroptimizer=torchconfig.get_optimizer_from_dict(net.parameters(),optimizer_config)
lr_scheduler_config={"name":"CyclicLR","base_lr":0.01,"max_lr":1}lr_scheduler=torchconfig.get_lr_scheduler_from_args(optimizer,**CONFIG["lr_scheduler"])# orlr_scheduler=torchconfig.get_lr_scheduler_from_args(optimizer,name="CyclicLR",base_lr=0.01,max_lr=1)# orlr_scheduler=torchconfig.get_lr_scheduler_from_dict(optimizer,CONFIG["lr_scheduler"])

欢迎加入QQ群-->: 979659372 Python中文网_新手群

推荐PyPI第三方库


热门话题
java Spring数据JPA+Hibernate在不首先找到父实体的情况下保存子实体   php Java:如何从CLI接收命令   spring为java中的导出数据创建访问文件   java在Windows 8.1上安装Play Framework   java Spring启动白标签错误页面(类型=未找到,状态=404)   java如何在单击时从数组中绘制?   java fn:substringAfter()上次出现   java在IFR语句中使用方法返回   java onPause()或onStop()的名称   对关联对象的关联对象具有条件的java HQL查询   java只打印一次总值,无需迭代   java如何使用抽象Uri buildOn()方法?   如何在Java中执行sudo命令并获得错误输出?   java反射:避免对getConstructor(类<?>…)的未经检查的警告调用作为原始类型类的成员   Java:如何从类中创建的对象调用类方法?   java如何在电子邮件中嵌入图像?   java如何在Android上启用详细GC?   java什么是串行版本id?