我正在尝试将多点触控事件嵌入wxpythongui中,但是对于最佳方法我有点迷茫。在
目前,我有一个TUIO服务器,它传输要捕获的多点触控事件。然后我使用pytuio库在一个单独的线程中接收GUI的多点触控事件。我的GUI由一个wxFrame和多个matplotlib面板和一个OpenGL面板组成。在
问题是我不得不手动编写代码来确定使用了多少个手指、位置和触摸类型。然后我发送一个自定义事件,这个事件可以被我的GUI接收。在
这对于matplotlib面板来说很好(尽管我必须提供一个非常小的恒定偏移量到所报告的手指位置),但是对于OpenGL面板,手指的位置似乎不正确。这是一个问题,因为OpenGL面板中触摸位置的偏移甚至不是一个常数,它似乎随着触摸事件发生在面板上的位置而变化。所以我无法补偿。在
我觉得必须有一个更全面的多点触控库,它做所有的努力来决定手指的数量和触摸类型(点击,双击,拖动,释放等等)。而且有可能用OpenGL面板解决我的问题。我看过,但我没有看到一个图书馆,可以区分触摸类型等,他们似乎只是提供了一个名单的手指数量和位置。在
唯一全面的GUI库支持:
是基维。我能够拼凑出适用于windows7及更高版本和wxPython的东西(通过从Kivy中提取相关部分来处理
WM_TOUCH
事件),所以原则上可以做到。但这些都不能解决你的具体问题。在相关问题 更多 >
编程相关推荐