shared-libraries

    1热度

    2回答

    我构建了GLEW(使用make install)在我正在编写的一个小测试程序中使用(如果需要,可以找到源码here)。我跑locate libGLEW.so只是为了检查是否安装正确的GLEW库,并得到了以下的输出: /usr/lib64/libGLEW.so /usr/lib64/libGLEW.so.2.0 /usr/lib64/libGLEW.so.2.0.0 这是完全正常的。然后我使

    1热度

    1回答

    我正在写一个基于libpthread.so的共享库。要构建它,我用下面的命令: gcc -fPIC -shared -lpthread -o libfoo.so foo.c 但连接使用libfoo.so文件时,我必须指定选项-lpthread -lfoo不仅仅是-lfoo。另外,ldd libfoo.so不显示关于libpthread.so的任何信息。 那么,有没有什么办法可以避免'-lpth

    0热度

    2回答

    我试图运行LibSourcey来使用Webrtc Streaming Server。 事情是,我似乎无法使它的工作。 我努力在我的Ubuntu 16.04上制作项目(在cmake文件中使用正则表达式),但现在修复了它。 我居然得了的问题是在编译时将共享对象错误: usr/bin/ld: /home/kimmie/ffmpeg_build/lib/libswresample.a(options.o)

    3热度

    3回答

    我建立一个共享对象从以下C代码用下面的命令: gcc -fPIC -shared libx.c -o libx.so libx.c extern int printf(const char *, ...); int libvar = 250; void libfunc(){ printf("%d,",libvar); } 然后我联下面C代码靠在libx.so库以下命

    -2热度

    1回答

    当Linux加载共享库时,我的理解是,文本部分只加载到物理内存中一次,然后映射到引用它的不同进程的页表中。 但是在哪里/谁确保/检查相同的共享库文本段没有被多次加载到物理内存中? 是否通过加载程序或mmap()系统调用避免了复制或者有其他方法以及如何实现? 编辑1: 我必须证明迄今为止做了什么(研究)。这是... 试图跟踪一个简单的睡眠命令。 $ strace sleep 100 & [1] 2

    0热度

    1回答

    我已经继承了一个遗留项目,它利用* .lib中的一些外部函数。据我所知,使用* .lib的语法是正确的,并且这个 可以在他们使用的任何visual studio版本中构建。 (即,有一个外部“C”原型文件,并且所有功能签名都是正确的)。 建设的时候,我得到“错误LNK2019:解析外部符号_A86_ReadConfigReg @函数引用12 ......” 我很有信心,这是因为是* .lib相关的

    2热度

    1回答

    我开发了一个C程序,需要一些动态库,最值得注意的是libmysqlclient.so,我打算在某些远程主机上运行。看起来好像我有以下分配选项: 编译程序静态。 在远程主机上安装所需的依赖关系 分配程序的依赖关系。 第一个选项是有问题的,因为我在运行时需要glibc-version(因为我现在使用glibc和libnss)。 我不确定第二个选择:是否有一种机制,检查安装的库版本是否足以让程序运行(在

    1热度

    1回答

    在Linux中,如果我在动态库中声明一个函数为__attribute__((always_inline)),然后我动态加载该库,那么该函数是否将由动态链接程序内联,并使用gcc? 我编译动态库,在-O3并没有经过任何链接时优化标志-flto 真正的问题是:是在一个动态库,值得声明的函数总是内联,当它被称为大部分的时间从另一个图书馆?

    0热度

    1回答

    只是一个问题,这可能是一个明显的问题。我正在写一个一般会分发的软件包,我不想在将来做任何支持(不要问)。它依赖python的标准库,但有一个例外。如果将来有一个例外从PYPI中删除,我不想更新我的代码。 所以我的问题是:我可以在我的软件包中包含我从PYPI下载的软件包,所以它始终以当前状态存在,用户不必单独下载它?如果是这样,我只需将我的sys.path中的包移动到我的包中? 谢谢,如果这是一个明

    0热度

    1回答

    我对正常工作有一些额外的安全考虑。我通常使用sbt来构建,我会给它一些库来从Maven仓库中抓取。但是现在,我无法使用很多外部库,并且我现在还不确定是否可以到Maven去获取我可能需要的Spark库。即使我要获得外部图书馆,也需要审查每个图书馆需要几个月的过程。有没有人遇到类似的情况?从不能使用外部库的角度来看,任何人都可以分享他们做了哪些工作来成功完成Spark作业套件,以便在hadoop群集上